Intel Arc A380: MSI liefert Benchmarkwerte

der herkunft des artikels nach:

"At 1080p using the Medium and Low quality presets PUBG scores 94 FPS. Overwatch with 100 FPS, League of Legends with about 200 FPS, and “Eternal Catastrophe” nets 85 FPS."

sind also nicht soooo unbekannte titel ;) - nur die bildchen für sich allein sind vermutlich vor allem für nichtspieler dieser spiele wenig aussagekräftig.

aber wir sprechen hier von wenig anspruchsvollen e-sports-titeln in mittleren bis niedrigen einstellungen in 1080p. herzlichen glückwunsch, intel. :ugly:
Und ich hab noch die FPS meiner Fury von damals vor Augen auf einem 1920x1200 Monitor bei vollen Details, das waren 500-630 FPS. Ich hoffe mal die FPS hier waren ein Scherz, möchte aber gesichert daran glauben, dass es sich hier um die kleinste GPU handelt, ansonsten würde ich hier extrem schwarz sehen :ugly:
 
Intel sagt, dass die Karte 25 Prozent mehr Leistung als die Radeon RX 6400 bietet, mit der sie im Wettbewerb steht.
Nein, das stimmt nicht. Intel spricht von +25% Perf pro Yuan, nicht von absoluter Performance. Zumal Intel dafür auch noch schön Straßenpreis der 6400, aber nur die UVP der A380 als Grundlage nimmt.
 
6GB, 75 Watt, bis zu 25% schneller als die 6400 und wahrscheinlich ein Straßenpreis von unter 150 Euro. Hört sich doch gut bis sehr gut an.
 
Sowas bitte in Low Profile Single Slot für meine zehn LAN-Rechner... aber dann maximal 100EUR/Stk., denn ich bin nicht Krösus. :D

Momentan haben wir in diesesn Kisten R7 250(E) oder R5 240 verbaut.
 
  • Haha
Reaktionen: rum
Wenn sie mit dem Argument der Effizienz, in völlig ineffizienten Zeiten (RTX4000 und RX7000), kommen, haben sie einen Punkt. Sie müssen halt nicht mit ihrer Leistung werben, denn da haben sie keine Chance, aber wenn GPUs mit 400-800W diskutiert werden, dann sieht ne GPU mit 75W plötzlich relativ sexy aus, wenn der Preis noch stimmt und der Einsatzzweck passt. :-)
 
Wenn sie mit dem Argument der Effizienz, in völlig ineffizienten Zeiten (RTX4000 und RX7000), kommen, haben sie einen Punkt.
Du verwechselst absoluten Verbrauch mit Effizienz. Nur weil eine GPU (fiktiv, 4090) 450W verbraucht, ist sie nicht ineffizient. Bei der Effizienz spielt die Performance eine entscheidende Rolle. Wenn die sich verdoppelt, sind 450W ggü. 350W des Vorgängers massiv effizienter.
 
Das stimmt, aber die sind in den Dell Computern nicht drin, die wir günstig bekommen. Was soll den so ein kompletter PC mit APU kosten? Sicherlich mehr, als ich für 10 unserer Rechner bezahlt habe. ;)
Kommt drauf an was der können soll.
Aber in etwa um die 250-300€ ohne jetzt genaue Preise nachzuschauen.
 
Du verwechselst absoluten Verbrauch mit Effizienz. Nur weil eine GPU (fiktiv, 4090) 450W verbraucht, ist sie nicht ineffizient. Bei der Effizienz spielt die Performance eine entscheidende Rolle. Wenn die sich verdoppelt, sind 450W ggü. 350W des Vorgängers massiv effizienter.
Das alles stimmt, doch mittlerweile ziemlich düster aus, was RDNA3 und Ada in Punkto Effizienzfortschritt angeht. AMD selber spricht bislang bloß von mehr als 50% Effizienzgewinn --- für den drastischen Fertigungssprung (von TSMC 7nm DUV hin zu 5nm EUV; laut TSMC +23% Performance bei ISO-Power) und einem im Packaging (monolithisch zu gestakten Chiplets, erhöht indirekt auch die Effizienz) ist das ziemlich schwach. 100% Effizienzgewinn sollten mindestens drinnen sein, auf Seiten Nvidias (sie starten bloß bei Samsungs 8nm-Prozess) sogar besser noch mehr.
 
Du verwechselst absoluten Verbrauch mit Effizienz. Nur weil eine GPU (fiktiv, 4090) 450W verbraucht, ist sie nicht ineffizient. Bei der Effizienz spielt die Performance eine entscheidende Rolle. Wenn die sich verdoppelt, sind 450W ggü. 350W des Vorgängers massiv effizienter.
Ja aber guck mal, 450W+ sind, Leistung hin oder her, völlig geisteskrank. So könnte man ja auch nachträglich SLI-Systeme von Kepler, Maxwell und Pascal rechtfertigen, wenn der Stromverbrauch und der Preis keine Rolle spielen.
 
6GB, 75 Watt, bis zu 25% schneller als die 6400 und wahrscheinlich ein Straßenpreis von unter 150 Euro. Hört sich doch gut bis sehr gut an.
Ui diese Intel gpu wird villeicht sogar ne Gtx 1650 schlagen. Ich suche nach ner neuen 75 Watt gpu aber die kommt nicht. Blöd wird sein das die Intel gpus für alte games nicht geeignet sind. Sonst würde mich wirklich ne Intel gpu interessieren. Ich verkaufe dann bald ne Gtx 970 um mir von dem Geld ne Gtx 1070 kaufen zu können. Damit diese nen Gtx 1050 ti ersetzen kann die wiederum ne Gtx 750 ti ersetzt. Sonst würde diese gpu richtig in meiner Konstellation der PCs super rein passen. Gezockt werden überwiegend alte Bekannte games. Aber auch mal für was neues nach Jahren durchaus interessiert. Aber wir werden schon sehen wie sich Intel gpus schlagen werden.
 
Ja aber guck mal, 450W+ sind, Leistung hin oder her, völlig geisteskrank. So könnte man ja auch nachträglich SLI-Systeme von Kepler, Maxwell und Pascal rechtfertigen, wenn der Stromverbrauch und der Preis keine Rolle spielen.
Sagen wir mal 200W sind für dich OK.
Erzähl das mal jemanden aus den 90ern, der schlägt die Hände über dem Kopf zusammen.
Es geht halt wie schon gesagt um die Effizienz.
 
Sagen wir mal 200W sind für dich OK.
Erzähl das mal jemanden aus den 90ern, der schlägt die Hände über dem Kopf zusammen.
Es geht halt wie schon gesagt um die Effizienz.
Ich kann die Aussage nur unterstreichen. 200 Watt werden in Zukunft noch mehr gelten als heute.

Es ist kein Geheimnis, dass die zukünftige RTX 4060 eine TDP von ca. 220 Watt haben wird. Von der Leistung wird diese Grafikkarte ungefähr auf dem Level einer RTX 3080 liegen. Die TDP liegt bei dieser Karte bei 320 Watt. Händisch optimiert bei 280 Watt.

Der Unterschied zur 4060 ist ziemlich gering (50-60 Watt).

Ich frage mich, wo genau die Effizient beim 5nm Fertigungsprozess sein soll?
 
Ich habe ja beim 4060 mit ebenso 150 Watt erwartet gehabt, aber das wird halt nicht eintreten. Und ne rtx 4050 wird dann auf Level rtx 3070 liegen. Aber mit rund 150 - 180 Watt ebenso kein sparsames Modell sein. Und genau da hört dann die Serie schon auf. Eine Gtx 4040 mit fehlenden raytracing und vileleicht etwas weniger Einheiten für 120 bis Richtung 75 Watt fände ich echt nicht schlecht auf Level rtx 3060 Level und ich wäre schon zufrieden. Und am besten einen guten Preis. Aber das wird wohl nie passieren.

Aber genau mit sowas würde man wohl alle anderen hersteller wohl ein Strich durch die Rechnung machen. Kaufen würden es gewiss sehr viele Zocker, weil sich die meisten ja eh mit 1080p zocken. Aber dazu müsste man sich ja vom hohen Ross herunter bewegen. Villeicht kann ja Intel dran langfristig etwas ändern, wer weiß.
 
Zurück