Geforce MX250: Nvidia setzt erneut auf zwei nicht direkt unterscheidbare Varianten

Ja :lol: wieder mal ein Paradebeispiel wie Dumm & Betrügerisch Nvidia ist.
Nicht nur unfähig endlich mal Leistungsfähige Hardware zu liefern, welche auch mal aktuelle High End Monitore 4k ausreichend befeuert, anstatt gerade mal so lappige 60FPS (wenn überhaupt!!!)
Und dann Kunden so hinters Licht führen das der dann um 50% gedrosselten Bullshit kauft für den selben Preis der Performanteren Mobilen GraKarte. Also mal ehrlich, im Grunde ist ne 2080ti das selbe wie eine 1080ti nur einen chip drauf der paar % leistung mehr bringt aber auch nur wenn RTX aus ist. Armer versuch aus Kaka Gold zu machen würde ich sagen. Vorallem bei dem Preisunterschied beider Karten.

Peanut Butter Jelly Time :banane: bei NVIDIA aus freude der Einnahmen durch fröhlich zahlende Kunden ihrer Fakeware *hust* Hardware.
"Macher & IT-Pro" LMAO. Ist das der so genannte Satire-Rant mit gnadenlos vielen Rechtschreibfehlern ?

Zum Thema;
Sehe das so wie Chinaquads, jedoch muss dem Notebookhersteller natürlich die Möglichkeit gegeben werden die Ware so selber zu kennzeichnen. PCGH soll sich mal eine 10 Watt Version ordern und das BIOS flashen
:ugly:
, evtl. geht die 10 Watt Variante eh mit 25 Watt dann, weil es tatsächlich der selbe Chip ist, bzw. wie soll Nvidia wissen welche Variante der Notebookhersteller wo verbauen will, ich denke er wird anhand der ID wissen was los ist, daher liegt der Ball dann eigentlich beim Notebookhersteller.
 
Wobei man sich bei der 10Watt Variante schon fragen kann warum man sich die 10 Watt nicht einfach spart. Mit Leistung hat das nichts zutun und ne Vega in nem Ryzen Mobile ist bestimmt ein gutes Stück schneller :-)
Abwarten. Mit 10W sind die Karten ziemlich effizient. Es ist wie mit Ryzen, die in der mobilen Variante noch grandioser als in der Desktopvariante sind, weil sie dort weit entfernt vom "Sweetpoint" betrieben werden.

Wenn man in seinem Ultrabook beim Kunden ein paar FEM oder Catia Daten zeigen will, helfen diese 10W Grafikkarten massiv.
 
Wenn das denn konsequent genutzt würde, wird es aber nicht.

z.B. dieses Prachtstück einer 560D mit 896 Shadern heißt wie?
ASRock Phantom Gaming Radeon RX 560 4G, 4GB GDDR5, DVI, HDMI, DP (90-GA0620-00UANF) ab €'*'108,92 (2019) | Preisvergleich Geizhals Deutschland

Und zwischen RX-560D und RX-560 gibt es massive Unterschiede. Im Fall der MX 250 wird es um zwei gleiche Chips geben, die nur mit unterschiedlicher Leistung betrieben werden. Das ist in der Regel eine Sache von wenigen Sekunden der Einstellung im Treiber. Der Chip ist und bleibt ein MX 250, egal mit welcher maximal Leistung er betrieben wird.
4GB ASRock Radeon RX 560D Phantom Gaming Aktiv PCIe 3.0 x16 (Retail) - RX 560 | Mindfactory.de
Wenn man dem Produkt weiter folgt, sieht man, dass da n dickes D dahinter steht, warum das bei Geizhals nicht so ist.. :huh:

Zu der MX: es sind 2 verschiedene Chips, mit unterschiedlichen Hardware-IDs, also werden diese unterschiedlich sein, sonst würde man ja einfach nur eine konfigurierbare TDP von 10-25W machen.
Der Chip hat aber wohl entweder 10 oder 25W, nicht bis.
Ergo 2 völlig unterschiedliche GPUs, zumindest von der Leistung her.

Diese kann man vor dem Kauf allerdings nicht unterscheiden, wenn es nirgends steht, welche Version eingebaut ist.
Diesen Unterschied sollte man in den Namen einbauen, zB. mit einem "D" wie bei AMD.
 
Nvidia wirbt mit einer 3,5-fach höheren Leistung der Geforce MX250 gegenüber Intels UHD 620-iGPU, während die MX150 viermal so flott ist als Intels HD 620.

Ist die UHD620 nicht identisch mit der HD620, da wurde doch nur der Name angepasst? Dann wäre die MX250 sogar langsamer. :devil:

https://www.notebookcheck.com/Intel-UHD-Graphics-620-GPU.239918.0.html schrieb:
Die Intel UHD Graphics 620 (GT2) ist eine Prozessorgrafikkarte der 2017 vorgestellten Kaby-Lake-Refresh-Generation (8th Generation Core). Die Grafikkarte ist identisch zur Intel HD Graphics 620 (GT2) in den 2016er Kaby-Lake-Chips und wurde lediglich umbenannt (HD -> UHD).
 
Zu der MX: es sind 2 verschiedene Chips, mit unterschiedlichen Hardware-IDs,.
Bei der MX 150 war es jedenfalls derselbe Chip, steht zumindest so im Artikel, er wurde nur mit anderer Leistung und anderer Frequenz betrieben. Bei der MX 250 vermute ich darum dasselbe. Oder hast Du mehr Informationen zum Chip und dessen Shaderanzahl?

Von daher sind meiner Einschätzung nach beide Varianten unabhängig von der ID dieselben MX 250 Chips, da ist kein physischer Unterschied. Bleibt die Frage, ob sie unterschiedlich selektiert sind. Vermutlich sind die 10W Varianten die besseren Chips, damit sie auch mit 10W noch etwas Leistung bringen und noch sparsamer sind. Denn Akkulaufzeit ist heute das A und O und ein sehr wichtiges Verkaufsargument.
 
Zuletzt bearbeitet von einem Moderator:
Bei der MX 150 war es jedenfalls derselbe Chip, er wurde nur mit anderer Lesitung betrieben. Bei der MX 250 vermute uich darum desselbe. Oder hast Du mehr Informationen zum Chip und desen Shaderanzahl?
Falsch ausgedrückt, sorry.
Ich meinte damit, dass möglicherweise auf Hardware-Ebene die TDP fest ist. Sonst könnten Notebookhersteller ja die (wahrscheinlich) günstigere 10W kaufen, und mit 25W betreiben.
Shader werden gleich sein.
Da hier aber 2 Unterschiedliche IDs vorhanden sind, wird es nicht auf eine Plumpe TDP-Konfiguration per Software rauslaufen.
 
Ja :lol: wieder mal ein Paradebeispiel wie Dumm & Betrügerisch Nvidia ist.
Jetzt bin ich aber gespannt.
Was genau daran ist "dumm" wenn es Geld bringt?
Und vorallem die Erwähnung von Nvidia macht mich stutzig: Ich hätte gerne jetzt Beweise, dass nur Nvidia das macht. Mir fallen nämlich aus dem Stand mehrere Grafikkarten von AMD/ATI ein, die einfach nur ( kastriert und) umbenannt wurden. Teils für den Chinesischen Markt aber dann doch wieder hier ankamen. Teils für OEMs usw usf
Nicht nur unfähig endlich mal Leistungsfähige Hardware zu liefern, welche auch mal aktuelle High End Monitore 4k ausreichend befeuert, anstatt gerade mal so lappige 60FPS (wenn überhaupt!!!)
Da kann ich nur sagen: Gott sei Dank haben wir AMD, bekanntermaßen ja die Hersteller der schnellsten GPUS seit fast 8 Jahren. Oh wait, das war wer anderes...

Im übrigen ist sowas im Notebooksegment völlig normal, dass beim selben Namen höchst unterschiedliche Taktraten etc anliegen.
Wobei man sich bei der 10Watt Variante schon fragen kann warum man sich die 10 Watt nicht einfach spart. Mit Leistung hat das nichts zutun und ne Vega in nem Ryzen Mobile ist bestimmt ein gutes Stück schneller
01 sm_B-).gif

Mitnichten. By Ryzen braucht alleine das IF vermutlich schon die 10 Watt - und da ist außer Kommunikation noch gar nix passiert - also kein IO, kein Prozessor oder Controller mitgerechnet Feed Me: Infinity Fabric Requires More Power - The AMD Threadripper 2990WX 32-Core and 2950X 16-Core Review
 
Zuletzt bearbeitet:
Mein Beitrag ist ja nun nicht lange. Wo siehst du da einen Hinweis darauf, ich würde das Gebahren für gut heißen?

Sorry, wollte Dir nichts unterstellen. Aber ich habe in Deinem Kommentar einen Hauch von süffisantem Unterton (Sarkasmus) heraus gelesen … ;-D

MfG, Föhn.
 
Intel und AMD machen doch auch immer das selbe - also intel bei CPUs und AMD sowohl CPUs als auch GPUs. man braucht sich nur aml die RyZen mobyle ansehen - da gibt es die selbe APU mal mit 11 mal mit 25 W.............
Aber hey - wenn Nvidia eine GPU mit einem niedrigeren powertarget rausbringt und die Partner das nicht anschreiben dann ist es ja wohl immer Nvidias schuld - wenn das bei AMD passiert dann kann AMD ja nichts dafür :ugly:
 
Intel und AMD machen doch auch immer das selbe - also intel bei CPUs und AMD sowohl CPUs als auch GPUs. man braucht sich nur aml die RyZen mobyle ansehen - da gibt es die selbe APU mal mit 11 mal mit 25 W.............
Aber hey - wenn Nvidia eine GPU mit einem niedrigeren powertarget rausbringt und die Partner das nicht anschreiben dann ist es ja wohl immer Nvidias schuld - wenn das bei AMD passiert dann kann AMD ja nichts dafür :ugly:


Und sobald das bei AMD vorkommt, wird es auch dort (vornehmlich von Nvidianern) kritisiert. Im Endeffekt dreht man sich hier im Forum doch schon ewig im Kreis (ja, ich gehöre auch dazu, aber wenigstens kritisiere ich beide dafür) und so wird es auch bleiben. Immerhin sammelt PCGH dadurch Klicks und Kommentare. :P

Ein wenig Galgenhumor darf ja sein. :D
 
Mitnichten. By Ryzen braucht alleine das IF vermutlich schon die 10 Watt - und da ist außer Kommunikation noch gar nix passiert - also kein IO, kein Prozessor oder Controller mitgerechnet Feed Me: Infinity Fabric Requires More Power - The AMD Threadripper 2990WX 32-Core and 2950X 16-Core Review
Another interesting point is that the IF power doesn’t change that much scaling up the cores, going from ~17.6W to ~25.7W. For the big Intel chip, we saw it rise from ~13.8W up to beyond 40W in some cases. This brings the question as to if Intel’s offering can scale in power at the low end, and if AMD’s IF has an initial ‘power penalty’ to pay before the cores start getting loaded up.
In den Desktop Chips.

Ryzen Mobile hat 4 Kerne mit 8 Threads, und ein Powerbudget von 12-25W.
Der IF kann hier prinzipiell gar nicht so viel ziehen, da sonst ja nur 2W für 4 Kerne zur Verfügung ständen.
Prozentual braucht der IF im Desktop zwischen 43 und 25% der gesamt-Power, je nach Load. Das wären beim 12W Beispiel 3W bei maximaler Last.
Ob man das so einfach runterskalieren kann, weiß ich aber nicht :ugly:
 
Die Chips gibt es doch sowieso nur im Laptop und da hängt die Leistung sowieso an der TDP und Kühlung die der Hersteller freigibt.
 
Die Chips gibt es doch sowieso nur im Laptop und da hängt die Leistung sowieso an der TDP und Kühlung die der Hersteller freigibt.
Man kommt bei Laptops nie drum herum genau das eigene Gerät zu testen. Dir Unterschiede sind einfach zu riesig, dieselben CPUs haben je nach Laptop eine riesige Spanne an Dauerleistung, das schwankt um den Durchschnittswert gerne mal mit +25% bis -50%, gerade mit Ausreißern nach unten.
 
Das meine ich. Der Pentium N4200 in meinem passiv gekühlten Tablett hat ne ganz andere Leistung als der im aktive gekühlten Laptop des Azubis. Der eine fällt sehr schnell auf 4x1100Mhz, der andere hält konstant 2Ghz+ und fast immer 2,5GHz.
 
Zurück