Intel Arc A750: Bis zu fünf Prozent schneller als Geforce RTX 3060

Wenn ich mir so Test anschaue, sind es eher 10 bis 15 % Mehrleistung
Ja aber ich mach mir die Welt eben nicht widdewidde wie sie mir gefällt. Im (von dir) gelinkten PCGH Test stehen die Zahlen so drin wie sie drinstehen.

bei massiv geringeren Stromverbrauch und 33% mehr GPU Speicher bei neueren Feature Set...
Es kommt in meinen Augen nicht nur auf die Leistung drauf an, auch das drum herum muss beachtet werden
Natürlich spielen sekundäre Faktoren mit rein, die aber minimalen Leistungssprünge in keinster Weise relativieren und auch so nichts sind worüber man in Freudentänze ausbrechen sollte, sondern bestenfalls den zu erwartenden Effizienzsteigerungen in dem Preisbereich entsprechen.

Wir sind hier nicht im High-End Bereich wo mit der Brechstange rausgeholt wird was geht, sondern in der Mitte. Wenn eine neue GPU hier nicht nur nicht wirklich schneller sondern dazu auch noch genauso ineffizient ist wie die ähnlich bepreiste Vorgängergeneration dann hat der Hersteller doppelt versagt. Bei der 6600 ist es "nur" einfaches Versagen.
 
Ja, ich weiss.
Deshalb die Frage.
Alles was mal erwartet wurde, war ne Alternative, die vielleicht in 2. Gen, eher 3. Gen konkurrenzfähig werden wird.
Manche tun hier aber so, als hätten NV oder AMD ihre neueste Gen vor die Wand gefahren.
Deshalb. Intel soll es einstampfen. Gar nicht mit solchen Hupen abgeben. Die können dann weiter über mangelnnde Alternativen heulen. Ist ja eh alles ************************ und keiner macht es richtig.
Btw ich mag Intel gar nicht, habe mich aber sehr über einen 3. Player gefreut. Und nachdem es ja ach soooo düster aussah nach den ersten Mustern ist 3060 Niveau auf DX12 ganz ordentlich mMn.
Leistungsaufnahme? Ernsthaft?! Wenn für NV 4xxx schon neue PSU Stecker nötig sind? Lasst doch mal die Kirche im Dorf oder belichtet das Silizium in Zukunft selbst besser.
Ach so.
Ein 3. Player oder sogar deutlich mehr ist nicht nur begrüssenswert sondern eigendlich ein Muss.

Was die Leistungsaufnahme bzw. Stecker angeht muss man vorsichtig sein.
Ein neuer Stecker ist an sich nichts böses (solange man Adapter für das "alte" NT kriegt) sondern ggf. was gutes.
Auch bin ich mir sicher das die kleinen Karten (RTX 4060 und darunter) nicht so viel verbrauchen werden.
=> aber abwarten und Tee trinken.
Ich habe meine RTX 2080 ja behalten weil ich schonm die Leistungsverbrauch der RTX 3080 zu viel fand (~100Watt).
Ein "Upgrade" von der RTX 2080 zur 3070 war für mich nicht wirklich lohnenswert.
Um zurück zu Intel zu kommen.
Es wäre echt nicht toll wenn die Karten soviel Saft brauchen wie bei der Konkurenz zwei (?) Stufen drüber.
aber auch hier => abwarten und Tee trinken.
 
Ich hab schon den i5 12600k gekauft um mal was neues auszuprobieren und bin immer noch hoch zufrieden mit dem Teil. Werde wohl auch eine ARC in meinen DAN A4 reinhauen wenn es ein gutes und leises 2 Slot Design gibt. Ich traue Intel zu das mittelfristig glatt zu ziehen. Erinnere mich noch gut dran wie interessant und spannend es war DLSS Verbesserungen im Wochentackt in BF5 zu sehen. Das soll hier doch ein PCGames Hardware Extreme Enthusiasten Forum sein, oder?
Ich jedenfalls bin einer und freue mich jetzt schon auf diese neue Herausforderung. AMD ist für mich jetzt guter aber langweiliger Mainstream geworden. Mit Bulldozer hatte man wenigstens noch was exclusives im Case....LOL
Ich spüre das Raff sich auch auf etwas Abwechslung freut.
 
Ich hab schon den i5 12600k gekauft um mal was neues auszuprobieren und bin immer noch hoch zufrieden mit dem Teil. Werde wohl auch eine ARC in meinen DAN A4 reinhauen wenn es ein gutes und leises 2 Slot Design gibt. Ich traue Intel zu das mittelfristig glatt zu ziehen. Erinnere mich noch gut dran wie interessant und spannend es war DLSS Verbesserungen im Wochentackt in BF5 zu sehen. Das soll hier doch ein PCGames Hardware Extreme Enthusiasten Forum sein, oder?
Ich jedenfalls bin einer und freue mich jetzt schon auf diese neue Herausforderung. AMD ist für mich jetzt guter aber langweiliger Mainstream geworden. Mit Bulldozer hatte man wenigstens noch was exclusives im Case....LOL
Ich spüre das Raff sich auch auf etwas Abwechslung freut.
toitoitoi das Du recht behälst das Intel es schafft bei der ARK mittelfristig (in Jahre?) glatt zu ziehen.
Ausser dem Basteldrang nachzugeben hat es keinen wirklichen Sinn eine RTX2070Super gegen eine Intel Arc zu tauschen; selbst wenn die Treiber irgendwann mal mitspielen; vorallem wenn Du die DLSS Verbesserungen magst.
 
Das Gute ist: Selbst wenn man sich in diesem Leistungssegment ausstatten will oder muss, hat man überhaupt keinen Druck, bevor keine Handelspreise feststehen. Der entsteht frühestens dann, wenn Intels Angebot wirklich deutlich günstiger ist als das Angebot der Konkurrenten. Dann, aber auch nur dann möchte man vielleicht pokern, auf kurze oder mittlere Sicht eine von allen Kinderkrankheiten befreite dGPU zu erhalten.

(Wem es hingegen ums Experimentieren mit einem Stück neuer Technik geht, ist ohnehin komplett schmerzfrei. Da besteht der Spaß darin, die Schwächen, Stärken und Workarounds für erstere herauszufinden.)
 
toitoitoi das Du recht behälst das Intel es schafft bei der ARK mittelfristig (in Jahre?) glatt zu ziehen.
Ausser dem Basteldrang nachzugeben hat es keinen wirklichen Sinn eine RTX2070Super gegen eine Intel Arc zu tauschen; selbst wenn die Treiber irgendwann mal mitspielen; vorallem wenn Du die DLSS Verbesserungen magst.
Na die RTX2070SUPER rückt halt in einen anderen Rechner weiter. Auf dem DAN A4 muss eh nur The Division 2 laufen und auch nur selten. Und das läuft laut Intel ja schon recht ordentlich. Da ich auf WQHD zocke reicht das dann.
 
Zurück