RTX 4000 und RX 7000: Leaker mit neuer Specs-Tabelle

Wenn eine 4090 mit vernünftigen Werten betrieben wird ist sie immer noch um Welten schneller als eine 4060.
Sich hinzustellen und zu sagen, kauf Dir eine Einstiegskarte wenn man die unsinnigen Verbrauchswerte nicht haben will ist, sorry, einfach nur überhebliches Gelaber.
Was mit einer 3090 mit 300W möglich ist kann man hier sehr schön sehen:
Warum kaufst du dir dann keine 4090 und machst mit der das gleiche? Check ich immer noch nicht.
Zwingt dich ja niemanden diese Karte mit 450W zu betreiben.

Zudem, wo habe ich denn gesagt, dass die R9 295X2 sinnvoll war? Zumindest war die R9 295X2 ein Crossfire aus zwei R9 290 auf einer Platine, also quasi zwei vollwertigen Karten. Vergleich das bitte dann auch mit einen SLI oder Crossfire-Gespann aus zwei Karten die jeweils 250W - 350W gezogen haben. Dann wird der Verbrauch der R9 295X2 schon gleich relativiert, da zwei einzelne Karten zusammen mindestens genau soviel Leistung gezogen haben.
Nö, es war EINE Karte und deswegen vergleiche ich sie auch mit einer anderen Karte. Wie viele Chips auf dem Board waren, spielt dafür keine Rolle oder darf RDNA4 mit MCM dann ruhig 600W+ verbraten? Sind ja schließlich auch mehrere Chips.
 
Ich find das immer lustig das viele denken das man zu viel Geld hat, nur weil man ein Upgrade machen will. :-)
Ich spare halt fleißig und leg immer was weg. Na und dann kann ich auch ab und an was kaufen. Das kann jeder, selbst mit einem kleinen Job.

Ich weiß nicht was der 5600X3D kosten wird - würde von 350 € ausgehen.
Wenn ich den 5800X für 200-210 € verkaufe, leg ich 150 € drauf und das sollte dann für die nächsten Jahre reichen.
Wenn du werter @Bert2007 Interesse an meinem 5800X hast, nur raus mit der Sprache!
AM5 1. Gen mach ich sowieso halt nicht mit.
Danke für das Angebot. Denke bei mir ist eher ein GPU Upgrade fällig
 
Warum kaufst du dir dann keine 4090 und machst mit der das gleiche? Check ich immer noch nicht.
Zwingt dich ja niemanden diese Karte mit 450W zu betreiben.


Nö, es war EINE Karte und deswegen vergleiche ich sie auch mit einer anderen Karte. Wie viele Chips auf dem Board waren, spielt dafür keine Rolle oder darf RDNA4 mit MCM dann ruhig 600W+ verbraten? Sind ja schließlich auch mehrere Chips.
Wow, Du kapierst wohl nicht wirklich, um was es geht, oder?
User wie Du sind der Grund warum die Hersteller den Verbrauchswahnsinn weitertreiben anstatt geringe Performancebstriche in Kauf zu nehmen und vernünftige verbrauchsoptimierte Produkte auf den Markt zu bringen. Wenn Du so skilled bist, wie Du vorgibst, sollte es Dir doch ein leichtes sein, die "Vernunft"-Karten auf die entsprechende OC-Leistung zu bringen. Du kannst Dich über ein entsprechendes OC-Potential freuen und alle normalen User haben eine leistungsstarke und verbrauchsoptimiert Karte ohne weitere Klimmzüge zur Verfügung.
Win-Win. Du bist der OC-Held und die anderen sparen sich Kühlung, PSU etc. .

Du vergleichst dann vermutlich auch ein Dual-Socketsystem mit einen Singlesocket und beklagst Dich, dass die zwei Prozessoren mehr brauchen als einer. Sorry, aber die Argumentation von Dir ist blödsinn. Vergleich einer Dual-Karte mit einer SLI/Xfire-Konfiguration, dann wird ein Schuh draus.

Und Deine Aussage zu dem MCM-Design ist reine Polemik und nochmals absoluter Blödsinn. Entweder Du redest hier absichtlich nur Schwachsinn, weil Dir die Argumente ausgehen oder Du hast wirklich keine Ahnung. In beiden Fällen fällt es mir schwer, Dich für voll zu nehmen.

Cunhell
 
Die ideale gpu für mich wäre die rtx4060 bei gerade mal 2,4ghhz mit 170w
realistisch ist das umsetzbar
Hopper mit 144sm und einer tbp von 350w aber 80gb hbm2 -40w
und einer chipgröße von nur 814mm² wird das ein chip um die 135mm²

Kosten müsste so eine gpu min 309€
Einziger Nachteil wäre 10gb vram und der euro kurs könnte bis dahin Parität sein also sprich 329€ für so eine dgpu
Erwarten tue ich die dgpu um q2 2023 also stramme 2 Jahre nach rtx3060
Als Leistung käme man bei 2,4ghz und 46sm =22,0tf (+141% vs rtx3060)
Das wäre eine zu Starke gpu und würde eigentlich kein Grund als rtx4060 zu bringen sondern als rtx4060ti
Dann aber steigt der preis auf 100€
Sprich 399-429€ als uvp
Diese gpu erwarte ich aber schon q1 2023 also Januar Februar.
nvidia marge könnte sich um 80% steigen statt wie bisher 70%
Das wäre realistisch und würde vs rtx3060ti +70% liegen
Da aber wie beim Gerücht hier 2,7ghz angepeilt sind
Müsste das die rtx4070 werden mit 275w tbp und stolzen 23,8tf was etwa der rtx3080ti entspräche
nvidia könnte da 100% marge aufschlagen für ne uvp von 499€
Und hätte ne sku über für spätere ti modell mit 52sm oder 56sm
Die dann etwa der rtx3090 nahe kommt.

Annahme das ada 96fp32 pro sm rechnen kann die fp64 wieder exklusiv rechnen mit dem Verhältnis 1-48


bei 2,4ghz würde ich die gpu kaufen als rtx4060 bei 329€ das aber ist sehr unwahrscheinlich das es passiert
Eher ist das Szenario der rtx4070 für 499€ mit 12gb vram
Physisch hat der chip 72sm aktiv sind 60 56 52 oder 46
Das wird aber erst bei der auslese im okt/nov festgelegt.
geplant waren 46sm

Derweil ist der ad102 mit 116 oder 128sm fertig spezifiziert
Welche sku das werden ist offen
ich gehe von ner titan und einer rtx4090ti aus.
mit 116sm 550w tbp und etwa 2399€ uvp als rtx4090ti etwa 2,5ghz =55,9tf
Und genau das wird im aug sept vorgestellt.

Der ad103 sprich rtx4080 sehe ich nicht vor dez 2022 die auslese des chips läuft noch und wird im aug soweit sein unklar welche sm menge es wird es sind 70 76 80 und 84sm im Gespräch abhängig wie gut die defekten chips sind
ich gehe von 76sm aus bei 2,7ghz Takt = 39,4tf oder +83% vs rtx3080
preis um die 999€
Ich nehme viel an, da ich neue infos bekommen habe.

Teils gestützt von TPU Tabelle von hopper den nvidia wird kaum die Fertigung verbessert haben.
Welche chip welche sku wird ist völlig offen aber 3,0ghz sind ausgeschlossen.
Hopper hat 814mm² 144sm 350w tbp mit 80gb vram sprich 40w
Die board Effizienz nehme ich nicht raus aber etwa 10% für die sm Deaktivierung
und das ist die optimistische Einschätzung für den verbrauch von ada
gddr6x nehme ich 1,5w pro 2gb Modul an bei 12 =24w bei 8 16w
gddr6 nehme ich 1,1w an
Nvidia wird sicherlich kein 1gb module bei rtx4060 und 70 nehmen
Unklar ob es schon gddr6x 21gbits als 2gb module gibt.
preis pro gddr6 bis 18gbits 6$
gddr6x 21gbits ab 8$

Die preise für geddr6(x) sind stark gefallen von ehemals 1gb gddr6 16gbits 10$ auf nur noch 4$ (eol derzeit)
2gb module sind bei 6-9$ je nach Takt
gddr7 steht vor der Türe und wird sicherlich als refresh 2023/24 kommen
blackwell könnte sich verzögern bis 2025

aber alles hängt vom markt ab derzeit ist dieser überfüllt mit dgpu gebraucht und neu
nvidia hat keine andere Wahl als ada offiziell erst q1 2023 zu bringen geplant war q3 2022
paperlaunch der titan und rtx4090ti sehe ich aber im sept bis dez 2022
Dafür sprechen auch einige leaks
In Asien wird derzeit alles was mining hardware angeht verschleudert rtx3090 für 500€ aber als bulk in 100er packs
10er packs bei 700€ pro stück
Das wird sich irgendwann im sept oder okt in ebay zeigen ich gehe von 900€ aus
natürlich als gebr deklariert ohne Erwähnung fürs mining genutzt worden zu sein.
darum wird der preis irgendwann q1 2023 nochmal um 400€ sinken auf 500€ pro sku
Wenn die rtx 4070 mit derselben Leistung bei 499€ neu gibt


Das wäre meine Prognose
Für mich interessant wäre die rtx4060ti mit 46sm und nur 2,4ghz bei 170w 429€ wenn es blöd läuft

ich tendiere aber bei Nachfolger mit nochmal um 25% gesenkten verbrauch oder 12% mehr Takt
Ein 12v 16pin mit 150w Begrenzung q1 2025

Das wird ein vergleich gpu von 2013 bis 2025
gtx760 sofern noch funktionsfähig
gtx1060 6gb
rtx3060 (dxr im speziellen)
rtx5060 (gegen dxr zum Vorgänger)
Spiele von 2005 bis 2024 insgesamt 100 4stk pro Jahr
Cpu vergleich ci7 5820k vs r7 3800xt vs r7 5800x3d vs r7 7800x3d (optional wenn bis dahin verfügbar und bezahlbar vs 5800x3d)
16gb 32gb und 32gb
Das wird aber dauern nächstes upgrade gpu unklar ob rtx4060ti oder rtx5060
ich mach es von der tbp abhängig.
mehr als 170w keine chance
Derzeit ga106 etwa 170w bei 1,85ghz etwa 9115gflops wenn ausgelastet
Partiell mit dem r7 3800xt im cpu limit oft zwischen 90-95%
Eventuell Wechsel auf 1440p mit rtx4060ti/5060 und 10bit mit gsync sofern endlich das gefixt wurde bisher geht gsync nur mit 8bit
ideal va panel

Das wären meine Pläne
Anforderungen die kommen werden

ssm wird zur Pflicht egal ob os drauf oder nicht
auch ein nächstes upgrade aber das wird Thema wenn erste ue5 spiele kommen was ich etwa q1 2023 erwarte

heiß erwartet
stalker 2
atomic heart
unklar ob ue5
scorn
tes 6
witchfire
beyound good and evil 2
alan wake 2

Das sind die releases bis q4 2023 Überraschungen nicht angenommen bsp control 2 völlig offen welche engine das wird.
Als Rennspiel erwarte ich endlich das wrc legends dxr bekommt.
Forza wird es definitiv erst bei horizon 6 haben was ich erst 2024 erwarte

Derzeit beendet
Sniper Elite 5 war nett
Benchszene ist am Anfang auf dem uboot etwa 78fps da das game kaum langsamer wird in späteren levels ist das ausreichend im schnitt schätze ich 70fps bei maxed settings auf 1080p ohne upscaler und msaa

meine gtx1060 müsste bei etwa 42fps sein Tendenz zu 35fps
War wirklich zeit fürn Wechsel 2021

Wie sind eure Pläne ich nehme alles in 1080p an, da ein monitor Wechsel mich zum gpu Wechsel zwingt.
aha der ad 102 is also fertig spezifiziert....
woher hast du denn die info her....
du sagst du gehst von 116sm aus für die 4090....
warum gibst du das dann gleich wieder als fakt aus das es dann auch so vorgestellt wird....
mal abgesehen davon das du dir wieder alles aus den fingern saugst.....
bei den letzten leaks von turing und ampere hat nichts davon gestimmt....
also sind auch das hier nur phantasie rechnungen gestützt auf gerüchte.....

also erschließt sich mir noch immer der sinn dahinter nicht warum du das immer wieder machst....
 
Wow, Du kapierst wohl nicht wirklich, um was es geht, oder?
User wie Du sind der Grund warum die Hersteller den Verbrauchswahnsinn weitertreiben anstatt geringe Performancebstriche in Kauf zu nehmen und vernünftige verbrauchsoptimierte Produkte auf den Markt zu bringen.
Jeder Mensch ist anders und hat andere Bedürfnisse. Du bist nicht der Mittelpunkt des Planeten, also wieso soll es nach deiner Nase gehen? Mir ist es zum Beispiel relativ, ob die Graka nun 300W oder 450W verbraucht. Wenn es dich stört, dann greif zu einem anderen Produkt und gut, aber hör doch auf anderen deinen Willen aufzuzwingen.

Wenn dir 450W zu viel sind, dann greif zur 4070 und wenn du unbedingt doch eine 90er Karte willst, dann kauf sie dir und beweg den PT Regler im Treiber oder Afterburner nach links und fertig, aber das willst du nicht. Du willst auf Teufel komm raus deinen Willen durchsetzen und eine 4090 mit 300W Verbrauch ab Werk haben.

Wenn Du so skilled bist, wie Du vorgibst, sollte es Dir doch ein leichtes sein, die "Vernunft"-Karten auf die entsprechende OC-Leistung zu bringen. Du kannst Dich über ein entsprechendes OC-Potential freuen und alle normalen User haben eine leistungsstarke und verbrauchsoptimiert Karte ohne weitere Klimmzüge zur Verfügung.
Habe nie behauptet "so skilled" zu sein, aber den PT Regler zu bedienen ist kein Hexenwerk.

Du vergleichst dann vermutlich auch ein Dual-Socketsystem mit einen Singlesocket und beklagst Dich, dass die zwei Prozessoren mehr brauchen als einer. Sorry, aber die Argumentation von Dir ist blödsinn. Vergleich einer Dual-Karte mit einer SLI/Xfire-Konfiguration, dann wird ein Schuh draus.
Der Vergleich hinkt. Beim Dual-Socketsystem kaufe ich zwei Prozessoren. Die 295X2 wurde als eine Graka verkauft. Da muss ich nichts extra kaufen. Ich habe eine Platine, die ich in den Pcie Slot stecke.
Abgesehen davon muss das Biest auch keine 500W+ verbrauchen. AMD hätte die Chips auch etwas runtertakten und näher am Sweetspot laufen lassen können. Haben sie aber nicht und daran haben sich die wenigsten gestört.

Und Deine Aussage zu dem MCM-Design ist reine Polemik und nochmals absoluter Blödsinn. Entweder Du redest hier absichtlich nur Schwachsinn, weil Dir die Argumente ausgehen oder Du hast wirklich keine Ahnung. In beiden Fällen fällt es mir schwer, Dich für voll zu nehmen.
Ist es nichts, sondern Auslegungssache. Was interessiert es mich als Konsument, wie viele Chips auf der Platine sind? Ich habe eine (in Zahlen: 1) Grafikkarte gekauft.
 
Zuletzt bearbeitet:
Jeder Mensch ist anders und hat andere Bedürfnisse. Du bist nicht der Mittelpunkt des Planeten, also wieso soll es nach deiner Nase gehen? Mir ist es zum Beispiel relativ, ob die Graka nun 300W oder 450W verbraucht. Wenn es dich stört, dann greif zu einem anderen Produkt und gut, aber hör doch auf anderen deinen Willen aufzuzwingen.
Aber wenn Du das tust, weil Dir selbst der Verbrauch wurscht ist, ist es ok? Jemand der eine andere Meinung hat, soll sich trollen und die Klappe halten. Auch eine Einstellung.
Wenn dir 450W zu viel sind, dann greif zur 4070 und wenn du unbedingt doch eine 90er Karte willst, dann kauf sie dir und beweg den PT Regler im Treiber oder Afterburner nach links und fertig, aber das willst du nicht. Du willst auf Teufel komm raus deinen Willen durchsetzen und eine 4090 mit 300W Verbrauch ab Werk haben.
Nein, ich will eine Grafikkarte, die nicht mit einem unsinnigen Mehrverbrauch ein paar Prozent Leistung rausholt.
Und komm nicht dauernd mit den kleineren Karten an. Die sind auf grund der verbauten Chips um einiges langsamer. Abgesehen davon sind diese Karten oft auch nicht besser was die Effizienz angeht.
Eine eingebremste 3090ti wie in dem von mir verlinkten Artikel ist deutlich schneller als eine 3080 und braucht 100W weniger. Das solltest sogar Du einsehen.
Habe nie behauptet "so skilled" zu sein, aber den PT Regler zu bedienen ist kein Hexenwerk.
Naja, Du erklärst doch dauernd wie einfach das UV etc ist. Ich kenne genügend Leute, die gerade mal den Treiber
installieren können wenn überhaupt. Und solchen Leuten willst Du dann empfehlen, an den Einstellungen rumzuschrauben? Oder willst Du denen das Recht absprechen, eine Highend-Karte zu benutzen?
Der Vergleich hinkt. Beim Dual-Socketsystem kaufe ich zwei Prozessoren. Die 295X2 wurde als eine Graka verkauft. Da muss ich nichts extra kaufen. Ich habe eine Platine, die ich in den Pcie Slot stecke.
Gut man kann natürlich krampfhaft ignorieren, dass die X2-Karten nichts anderes waren als Xfire auf einer Platine.
Darum wurden die Karten auch immer gegen normale Xfire/SLI-Konfigurationen getestet.
Ist es nichts, sondern Auslegungssache. Was interessiert es mich als Konsument, wie viele Chips auf der Platine sind? Ich habe eine (in Zahlen: 1) Grafikkarte gekauft.
Wenn Du den Unterschied zwischen einem MCM-Package und einer Dual-Chipkarte krampfhaft ignorieren willst bitte. Aber damit argumentierst Du ins lächerliche. Sowas kann man nicht wirklich ernst nehmen.
Das ist einfach nur blödes Geschwurbel, sorry.

Cunhell
 
Aber wenn Du das tust, weil Dir selbst der Verbrauch wurscht ist, ist es ok? Jemand der eine andere Meinung hat, soll sich trollen und die Klappe halten. Auch eine Einstellung.
Kannst du mal bitte zitieren, wo ich jemals was von "Klappe halten" oder "troll dich" geschrieben habe? Du legst mir gerade Worte in den Mund, die ich nie benutzt habe.

Ich hatte mich lediglich in die Diskussion eingeklinkt, um dir Ausweichmöglichkeiten, wie UV/PT Regler oder eine kleinere Karte vorzuschlagen und deinen Standpunkt zu verstehen.

Nein, ich will eine Grafikkarte...
Und genau das ist der Punkt, den ich nicht ganz nachvollziehen kann. Ein erwachsener Mensch, der mit anderen diskutiert und mit "ich will" argumentiert. Jeder Mensch hat andere Vorstellungen und die kann man nicht alle 100% individuell erfüllen, aber es gibt Alternativen.

Du willst eine 4090 mit 300W Verbrauch und was ich möchte, ist dir egal. Wieso sollte es mich also interessieren, was du möchtest?

Und komm nicht dauernd mit den kleineren Karten an. Die sind auf grund der verbauten Chips um einiges langsamer.
Um einiges nicht unbedingt, aber ein bisschen schon, ja. Spielt das so eine große Rolle für dich, dass du 5% weniger Performance hast, wenn du zur 4070 mit 300W greifst, anstatt die 4090 mit 300W zu bekommen?

Abgesehen davon sind diese Karten oft auch nicht besser was die Effizienz angeht.
Je näher sie am Sweetspot takten, desto besser die Effizienz. Und doch, sind sie. Die 3070 ist effizienter als die 3080 und 3090.

Eine eingebremste 3090ti wie in dem von mir verlinkten Artikel ist deutlich schneller als eine 3080 und braucht 100W weniger. Das solltest sogar Du einsehen.
Die 3090ti ist aber nicht nur eingebremmst, sondern wurde mittels UV optimiert. Das macht Nvidia aber auch nicht, wenn sie dir eine 4090 mit 300W verkaufen. Das Argument hinkt also gewaltig.
Bremst du die 3090ti nur mittels PT Regler ein, ist sie wahrscheinlich etwas schneller als eine 3080, aber so viel dürfte das auch nicht sein.

Naja, Du erklärst doch dauernd wie einfach das UV etc ist. Ich kenne genügend Leute, die gerade mal den Treiber
installieren können wenn überhaupt. Und solchen Leuten willst Du dann empfehlen, an den Einstellungen rumzuschrauben? Oder willst Du denen das Recht absprechen, eine Highend-Karte zu benutzen?
Interessieren sich diese Leute überhaupt für den Verbrauch? Falls ja, wieso kaufen sie dann nicht direkt das passende Produkt?

Gut man kann natürlich krampfhaft ignorieren, dass die X2-Karten nichts anderes waren als Xfire auf einer Platine.
Darum wurden die Karten auch immer gegen normale Xfire/SLI-Konfigurationen getestet.

Wenn Du den Unterschied zwischen einem MCM-Package und einer Dual-Chipkarte krampfhaft ignorieren willst bitte. Aber damit argumentierst Du ins lächerliche. Sowas kann man nicht wirklich ernst nehmen.
Das ist einfach nur blödes Geschwurbel, sorry.
Ich argumentiere nicht aus technischer Sicht, sondern aus sicht des Verbrauchers, aber das habe ich dir bereits versucht zu erklären.

Aus technischer sicht unterscheiden sich monolithische DIEs, MCM und mehrere Chips (CF/SLI) gewaltig, aber in den ganzen Diskussionen ging es doch immer um Stromkosten und Abwärme. Die 295X2 erzeugt über 500W Abwärme. Was interessiert dich da der technische Aspekt, wenn wir von der unerträglichen Raumtemperatur und den Stromkosten reden?
 
Zuletzt bearbeitet:
Interessieren sich diese Leute überhaupt für den Verbrauch? Falls ja, wieso kaufen sie dann nicht direkt das passende Produkt?

Das Problem dabei ist aber doch das wenn ich zum Beispiel von meiner 1060 ausgehe ist der Trend über die 2060 zur 3060 beim Stromverbrauch von 120 auf 160 zu 170 immer nach oben.

Wenn das so weitergeht muss man ja schon zur 50er Version greifen und möglicherweise sogar in Zukunft braucht die mehr als 120w und dann ?

Und sag mir nicht das es nicht möglich wäre scheinbar ist nur das Problem das die meinen die länge des Balkens ist nicht nur bei den highend Karten das wichtigste.
 
Das Problem dabei ist aber doch das wenn ich zum Beispiel von meiner 1060 ausgehe ist der Trend über die 2060 zur 3060 beim Stromverbrauch von 120 auf 160 zu 170 immer nach oben.

Wenn das so weitergeht muss man ja schon zur 50er Version greifen und möglicherweise sogar in Zukunft braucht die mehr als 120w und dann ?
Die 50er würde dir ja trotzdem mehr Leistung bieten. Es ist ja nur ne Zahl/Benennung oder nicht?

Und sag mir nicht das es nicht möglich wäre scheinbar ist nur das Problem das die meinen die länge des Balkens ist nicht nur bei den highend Karten das wichtigste.
Klar ist es möglich, aber wer sich daran stört, hat Ausweichmöglichkeiten :)
Ich hätte auch lieber eine 300W Karte, aber wenn ich die Leistung anders nicht bekommen kann, dann nehme ich es eben hin oder passe es meinen Ansprüchen an. Bei meinem 12900K habe ich bspw. das PL1 und PL2 auf 160W limitiert, weil mir 241W einfach zu viel waren und diese eh nur bei Anwendungen relevant sind.
 
Die 50er würde dir ja trotzdem mehr Leistung bieten. Es ist ja nur ne Zahl/Benennung oder nicht?

Jaein
Ich hatte mich bewusst für die 1060 entschieden ich wollte grade nicht die schnellste aber auch nicht die lahmste ausserdem war da auch der Ram unterschied mit 4gb oder 2gb hätte ich keine Karte haben wollen.

Klar ist es möglich, aber wer sich daran stört, hat Ausweichmöglichkeiten :)
Und da liegt halt für mich der "Hase im Pfeffer" wenn ich wie bisher immer bewusst ehr im Mittelklassen bereich bleiben will (Leistung / Ram Ausstattung) sind halt die Auswahlmöglichkeiten doch begrenzt.

Ich weiß wenn ich Ansprüche habe muss ich auch zurückstecken was den Stromverbrauch betrifft, aber gefallen tut es mir nicht und richtig finde ich es auch nicht.
Ich hätte auch lieber eine 300W Karte, aber wenn ich die Leistung anders nicht bekommen kann, dann nehme ich es eben hin oder passe es meinen Ansprüchen an. Bei meinem 12900K habe ich bspw. das PL1 und PL2 auf 160W limitiert, weil mir 241W einfach zu viel waren und diese eh nur bei Anwendungen relevant sind.
Also sind wir uns eigentlich einig das weniger Stromverbrauchende Karten besser wären. ;)
 
Zurück