Notebook mit Intel Iris Pro Graphics 5200 im Test - Spieletauglichkeit und Intel-Zusatzfunktionen von Grid 2 ausprobiert

hauptsächlich zum gamen, aber zum codieren, decodieren, konvertieren von videos z.b..




aber nicht in jeder preisklasse, z.b. den core i3 4158u mit iris 5100 und 28 watt tpd für 342$ halte ich jetzt nicht unbedingt für das größte schnäppchen. das entsprechende angebot von amd a10 5745m mit hd 8610g (vollausbau) und 25 watt tpd kostet 250$, für die differenz von 90$ hätte man mir auch die iris pro einbauen dürfen.

Beim Codieren usw. bist du immer noch auf entsprechende Software Unterstützung angewiesen, CPU Leistung kann man immer nutzen wenn diese benötigt wird. Da sehe ich erst richtiges Potential wenn HSA zündet und die Auslastung nicht mehr so sehr an die Software geknüpft ist.

Den Preisunterschied zu AMD kann sich Intel schlichtweg leisten. Im mobile Segment sogar noch mehr als beim Desktop, da man gute AMD Notebooks irgendwie an einer Hand abzählen kann. In meinen Augen macht Intel also alles richtig, gerade weil man von der Grafikleistung aufgeschlossen hat.

Edit: Es gibt zudem den i5 4288U der eine gute Ecke mehr Power hat und ebenfalls nur 342$ kostet. Intel hat hier und lässt viel Spielraum. Auf die angegebenen Preise würde ich da nicht zwingendermaßen setzen.
 
Zuletzt bearbeitet:
das waren listenpreise das da skonto und anderes noch abgeht ist mir klar. letztendlich bin ich halt der meinung das intel auch nicht der weisheit letzter rat sein kann. intel verdient soviel geld wie möglich ist ja auch ein unternehmen. amd hat teilweise entsprechende angebote. intel ist nicht die rolltreppe in den himmel, die sollten was tun, müssen sie imm nicht, aber das könnten sie noch bereuen. momentan ist x86 noch alternativlos, aber ich werde sich nicht verherrlichen, wenn es eine bessere alternative gibt bin ich weg.
 
Wüsste nicht was Intel momentan mehr machen sollte. Man hat bei der GPU Leistung zu AMD aufgeschlossen und im Hinblick auf Verschmelzung von CPU/GPU ist man eigentlich gleichweit wie mir scheint. Klar ist Intel keine Gottheit, behauptet hier auch keiner.

Für Alternativen bin ich immer zu haben, aber da kommt ja nix :ugly:
 
Das Produkt an sich ist klasse, das steht außer Frage. Das Intel da aufholt war aber auch nur eine Frage der Zeit. Es ist mMn aber einfach keine wirkliche Alternative, solange der Preis höher ist als der der Konkurrenz.
 
Erstmal, alle Achtung, dass ein Praktikant solch ein gutes Video abliefert :daumen:
Die HD 5200 liefert ja eine gute Leistung ab, hätte ich nicht gedacht. Ich denke aber das sich diese 2 Zusatzeffekte locker mit jeder "normalen" Grafikkarte auch zu berechnen wären, Intel hofft hier wohl auf Verkäufe im Gamer-Segment.

Ich frage mich dabei nur was die Ultra-Fanatiker unter uns anstellen werden, die A) max. Details wollen aber diese mit einer guten Grafikkarte nicht haben können oder B) die zwei exklusiven Effekte nutzen können aber auf Ultra-Details verzichten müssen :D

Nun, Grid 2 ist wegen der DLC-Politik ohnehin ein Flop, von daher ist es eine Diskussion eigentlich nicht wert.
 
doch gibt es:

Im NeoGAF-forum tummeln sich nicht erst seit gestern diverse Experten aus der Gaming- und Hardware-Branche und manch bekannter User dort lag mit seinen geleakten Informationen schon goldrichtig. Augenblicklich wird dort das Thema der neuen Chips für die Xbox One heiß diskutiert, denn wie mancher Insider wissen will, gibt es bei der Herstellung der eSRAM Wafer ziemlich hohen Ausschuss. Grund soll die enorme Größe der Dies sein, die neben den 5 Millionen Transistoren der APU (Accelerated Processing Unit) auch noch den eSRAM beherbergen.

quelle: Xbox One: Hat Microsoft Probleme bei der Herstellung der Chips?

falls du neuere infos hast dann hätte ich gerne mal einen link.
Wobei das schon immer seltsam angemutet hat. SRAM ist mitunter das leichteste was man fertigen kann und ebenso fungiert er nicht als cache, sondern muss von den Software Entwicklern gemanaged werden.
Riesengroß ist der die auch nicht.

Das Thema mal beiseite, aber wie viel Wert hat da die Xbox One im Vergleich?

Ich denke aber das sich diese 2 Zusatzeffekte locker mit jeder "normalen" Grafikkarte auch zu berechnen wären, Intel hofft hier wohl auf Verkäufe im Gamer-Segment.
Nope, soweit ich verstanden habe hat Intel etwas spezielles in ihren ROPs gemacht, welche Design technisch sich etwas von denen von AMD/Nvidia unterscheiden.
Diese Lösung wäre nicht so effizient auf einer AMD/nvidia möglich wie es gerade bei Intel abläuft.
Von locker kann glaub gar keine Rede sein, weil es ohne echt reinhauen soll.
OIT per per-pixel linked list ist deutlich kostspieliger.
TressFX ist z.B. auch deswegen so teuer und ein 30% Perf hit ist ja nicht wirklich eine billige Sache, für einen Kopf wohl bemerkt.
 
doch gibt es:

Im NeoGAF-forum tummeln sich nicht erst seit gestern diverse Experten aus der Gaming- und Hardware-Branche und manch bekannter User dort lag mit seinen geleakten Informationen schon goldrichtig. Augenblicklich wird dort das Thema der neuen Chips für die Xbox One heiß diskutiert, denn wie mancher Insider wissen will, gibt es bei der Herstellung der eSRAM Wafer ziemlich hohen Ausschuss. Grund soll die enorme Größe der Dies sein, die neben den 5 Millionen Transistoren der APU (Accelerated Processing Unit) auch noch den eSRAM beherbergen.

quelle: Xbox One: Hat Microsoft Probleme bei der Herstellung der Chips?

falls du neuere infos hast dann hätte ich gerne mal einen link.

SRAM => Cache. Nur weil er bei der X1 auch manuell angesprochen werden kann, ändert das nichts daran, dass er rein gar nichts mit DRAM zu tun hat und keine für den Einsatz als Grafik-/Hauptspeicher nötigen Größen innerhalb der möglichen Transistorbudgets erreichen kann :klatsch:


Das Produkt an sich ist klasse, das steht außer Frage. Das Intel da aufholt war aber auch nur eine Frage der Zeit. Es ist mMn aber einfach keine wirkliche Alternative, solange der Preis höher ist als der der Konkurrenz.

Der Preis wird immer nach den Kunden gemacht. Und da Intels Preise für 80-90% der Marktteilnehmer niedrig genug sind, werden sie auch nicht weiter sinken.
 
Konnte mal jemand im Fließtext das Wort "Plastik" gegen "Kunststoff" austauschen?
Ich habe da sonst den Eindruck, dass der Autor dem Notebook extra einen "billigen" Touch einhauchen will.
 
Nope, soweit ich verstanden habe hat Intel etwas spezielles in ihren ROPs gemacht, welche Design technisch sich etwas von denen von AMD/Nvidia unterscheiden.
Diese Lösung wäre nicht so effizient auf einer AMD/nvidia möglich wie es gerade bei Intel abläuft.
Interessant. Wäre aber kein Problem bei einer HD 7970 wenn es nicht so effizient wie auf einer HD 5200 abläuft, oder? Natürlich nur theoretisch.
 
Interessant. Wäre aber kein Problem bei einer HD 7970 wenn es nicht so effizient wie auf einer HD 5200 abläuft, oder? Natürlich nur theoretisch.
Man müsste das ganze dann natürlich ganz anders vom Code her lösen, also einen extra Pfad schreiben der etwas ähnliches ermöglicht.
Ich glaube Marc hat geschrieben, dass Intel meinte mit ihrem Pixelsync wären die Ergebnisse 21 mal schneller.
Die 7970 sollte es dann aber unter 1080p sicherlich dennoch mit genug Luft noch stemmen können.
Hier mal ein Link zum Thema:

Grid 2 has exclusive Haswell GPU features - Beyond3D Forum

Andrew Lauritzen arbeitet seit einiger Zeit bei Intel und erklärt dort genauer die Unterschiede.
 
Sehe ich das richtig, dass mit unterschiedlichen Grafikdetails gebencht wurde?
Erweitertes Blending und Rauchschatten hätten natürlich beim Schenker deaktiviert werden sollen! Wie viel fps kommt dann mehr zustande?
 
Zurück