• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel HD 5200 GT3e Grafikeinheiten so schnell wie Geforce GT 640 und Radeon HD 6670?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Intel HD 5200 GT3e Grafikeinheiten so schnell wie Geforce GT 640 und Radeon HD 6670?

Die Webseite VR-Zone veröffentlichte eine angebliche Intel-Folie auf der die angedachte Leistung der neuen Grafikeinheiten HD 5200 GT3e in das Verhältnis zur Konkurrenz gesetzt wird. Angeblich soll die Grafikeinheit so schnell wie eine Geforce GT 640 und Radeon HD 6670 sein.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


Zurück zum Artikel: Intel HD 5200 GT3e Grafikeinheiten so schnell wie Geforce GT 640 und Radeon HD 6670?
 

chiquita

Freizeitschrauber(in)
@Ion: Nur weil du es nicht brauchst heißt es nciht dass dieses Produkt keine Daseinsberechtigung hat, nciht jeder nutzt zwangsläufig Full HD als Auflösung, in den Fällen wäre sowas sehr praktisch oder auch HTPCs können so eine Leistung gebrauchen wenn man mal vom Sofa aus zocken will sofern ein Gamepad vorhanden ist.
 

Scalon

Software-Overclocker(in)
Wer zockt hat ne richtige Graka im PC
Wer nicht zockt braucht keine iGpu mit der Leistung einer HD 6670 :ka:
Gelegenheitszocker haben heutzutage ein Smartphone oder Tablet zur Hand

Doch, wenn man sein CS 1.6 mit Downsampling spielen will (wenn das eine iGPU kann & schafft) :ugly:
 
T

ThomasGoe69

Guest
Sorry aber du ließt die Grafik falsch.
Unten ist nur die Auflistung.
Schau dir mal oben die Kurve an. :schief:

sehr wahrscheinlich hast du Recht, der Compare Teil bezieht sich wohl nur auf die aktuellste Generation, die nebenstehende HD4000 hat wohl nur das Pech, das sie mit den Nachfolgern und Vorgängern in einer Reihe steht..;)

Und was die legitimation solcher IGP angeht, es ist hier doch im PCGH Umfeld öfters schon angeklungen, das die momentanen Chips "Mobile Chips auf Steroide" (Zitat Marc ?) sind und deswegen der Hauptfokus nicht auf die Gamer liegt, bei der IGP.
Deswegen können die Nörgler ja auch nur von sich ausgehen ...:schief:
 
Zuletzt bearbeitet:

m4ntic0r

Komplett-PC-Aufrüster(in)
Wer zockt hat ne richtige Graka im PC
Wer nicht zockt braucht keine iGpu mit der Leistung einer HD 6670 :ka:
Gelegenheitszocker haben heutzutage ein Smartphone oder Tablet zur Hand

Sehe das genauso, für einen reinen Office PC reicht die iGPU jetzt schon aus. Sie können sie ja weiterentwickeln, aber sie sollten den Aufwand dafür aufs Minimum reduzieren.
iGPU ist toll für Office PCs oder wenn man mal wieder seine echte Graka wechselt und kurzzeitig keine 2. zur Hand hat.
 

Locuza

Lötkolbengott/-göttin
Sie sollten die iGPUs immer weiter entwickeln, um immer mehr dGPUs ersetzen zu können.
Ebenso muss die GPU als Beschleuniger breiter eingesetzt werden können.
Die Vorteile eines gemeinsamen Chips sind immerhin nicht von der Hand zu weisen.
 

ReVan1199

Software-Overclocker(in)
Sehe das genauso, für einen reinen Office PC reicht die iGPU jetzt schon aus. Sie können sie ja weiterentwickeln, aber sie sollten den Aufwand dafür aufs Minimum reduzieren.
iGPU ist toll für Office PCs oder wenn man mal wieder seine echte Graka wechselt und kurzzeitig keine 2. zur Hand hat.
Oder wenn man noch mehr Monitore anschließen will, oder z.B. mit seiner iGPU Blu Rays gucken will.
Auch in den NBs finde ich es gut, das die endlich von der Grafik gute Leistung bringen.
 

beercarrier

Software-Overclocker(in)
ja aber die teuersten cpu´s bzw apu´s mit den leistungsstärksten igp´s auszurüsten ist ein marketing-/wirtschaftsschritt der in der praktischen anwendung wenig sinn macht. es wäre schön wenn es mehrere modelle wie den core i 3225 gäbe, am besten wäre ein pentium mit zumindest einer hd 2500, von mir aus könnten sie den dann auch für 5-15$ mehr verscherbeln.
 

mattinator

Volt-Modder(in)
sehr wahrscheinlich hast du Recht, der Compare Teil bezieht sich wohl nur auf die aktuellste Generation, die nebenstehende HD4000 hat wohl nur das Pech, das sie mit den Nachfolgern und Vorgängern in einer Reihe steht..;)
Hatte die Grafik anfangs wohl auch falsch interpretiert. Falls das Bild wirklich von Intel stammt, hängen sie sich die Trauben trotzdem ganz schön hoch. Ich glaube nicht, dass sie mit dem Wechsel von der HD4000 auf die GT2 (HD4200/4400/4600) in den Haswell-CPU's die Performance quasi verdoppeln können (Intel HD Graphics 4000 vs NVIDIA GeForce GT 630 | Tech News Pedia).
 

M4xw0lf

Lötkolbengott/-göttin
Sorry aber du ließt die Grafik falsch.
Unten ist nur die Auflistung.
Schau dir mal oben die Kurve an. :schief:

Im Artikel wirds genauso interpretiert:
Die kleineren Versionen (HD 4200/4400/4600 GT2) sollen vergleichbar mit einer Geforce GT 630 oder Radeon HD 6570 sein. Die Leistung solle sich ferner an der Vorgängerversionen HD 4000 messen lassen. Die kleinste Ausbaustufe HD 2x00 GT1.5 sei immer noch mit einer Geforce GT 620 vergleichbar bzw. dem Vorgänger in Form der HD 2500.
 

baal-sebul

Komplett-PC-Käufer(in)
Hm... ich les es sicher auch falsch, aber mir macht es den Eindruck, dass die HD3000 (die in meinem i3-2330M werkelt) mit einer GT 630 vergleichbar sein soll, obwohl diese deutlich potenter ist als meine eingebaute GT 520MX, die ja schon die HD3000 locker schlägt... Und dann sollen die HD4000er aktuell und zukünftig ebenfalls eine vergleichbare Leistung haben? Wozu dann die Weiterentwicklung? Haben die bei den Gen3 und Gen4 Prozessoren nur auf den Stromverbrauch geschaut?:what:
 

Z3rno

Komplett-PC-Aufrüster(in)
Wenn amn die Igpu für PhysX nutzen könnte wäre das ja schon geil :D. Aber im Ernst, hier im Forum sind die natürlich verpöhnt, aber auch zu recht!
Doch im Mobile Sektor(Not-/Netbook/Smartphone/Tablet) haben die durchaus gute Möglichkeiten und der ständig sinkende Verbruach zielt ja in die selbe Richtung.
 

XT1024

BIOS-Overclocker(in)
Ich freue mich schon auf noch mehr ungenutzte Trannsistoren. Sind das bald 50%? :schief: Wenn man mit dem Unfug wenigstens per OpenCl etwas nützliches anzufangen wüsste aber nee...

Wo oder wer ist denn diese Grauzone, die mehr Leistung als nur für den Desktop auf 1-3 Monitoren braucht aber weniger als der gelegentliche Gelegenheitsspieler, der alle 5 Jahre mal 50 € in eine Graka investiert?
 

Threshold

Großmeister(in) des Flüssigheliums
Wenn amn die Igpu für PhysX nutzen könnte wäre das ja schon geil :D. Aber im Ernst, hier im Forum sind die natürlich verpöhnt, aber auch zu recht!
Doch im Mobile Sektor(Not-/Netbook/Smartphone/Tablet) haben die durchaus gute Möglichkeiten und der ständig sinkende Verbruach zielt ja in die selbe Richtung.

Blöd nur wenn die Notebook Hersteller trotzdem immer weiter extra Grafikkarten verbauen.
 
J

John-800

Guest
Währe mal zeit 2 Schienen zu fahren...
Oldschool reine CPU ohne irgendwas und dann wer will eine mit iGPU für simples office. Ein paar Watt lassen sich ohne iGPU sicherlich einsparen oder können die Dinger etwa auf 0W gesetzt werden? Dann ist es einfach nur Platz verschwendung.
 

Threshold

Großmeister(in) des Flüssigheliums
zu teuer. Die IGP in der CPU ist jetzt drin. Das ändert niemand mehr. Ist auch nicht sinnvoll weil die IGP in der CPU deutlich besser ist als eine Grafik im Chipsatz.
Außerdem gibt es einen Chipsatz sowieso bald nicht mehr. Alles wird in die CPU wandern.
 

ΔΣΛ

PCGH-Community-Veteran(in)
Dafür das Intel keinen Grafikkartenspezialisten gekauft hat, so wie Amd (nämlich Ati), schlägt sich Intel sehr gut muss ich sagen.
Schön zu sehen das Intel da nicht locker lässt, und Amd schritt für schritt immer näher kommt.
Achtungserfolg !
 

The-GeForce

Software-Overclocker(in)
Es ist in der Tat beachtlich, was Intel hier auf die Beine stellt. Allerdings sehe ich es mit einem lachenden und einem tränendem Auge. Denn dem angeschlagenen AMD-Konzern würde ich es eher gönnen, wenn sie diese Lücke allein bedienen könnten. Das ist jedoch reine Sympatie meinerseits für AMD und das obwohl ich kein einziges Produkt aus dem Hause AMD habe.
Tatsächlich bin ich bereits von der HD3000 in meinem Notebook i5 schwer angetan. So kann ich auf meinem Notebook zumindest sehr alte Spiele (Heroes of Might and Magic 3) oder auch HD Videos ohne Probleme laufen lassen. Das war mit den alten Intel-GMPs nicht möglich. Und in Verbindung mit der ohnehin sehr starken CPU ist auch das Arbeiten mit diesem System ein Vergnügen. Keine Hänger, Ladepausen oder sonst etwas. Von daher muss ich Intel für die Core-i-Baureihe wirklich loben. So viel Leistung bei so geringem Stromverbrauch bekomme ich von AMD momentan leider nicht.

Der Fairness wegen möchte ich aber auch anmerken, dass leider keiner der großen Hersteller es wagt, in einer seiner Premium-Baureihen eine AMD-APU zu verwenden. Hätte ich nämlich die Wahl gehabt, hätte ich sehr gerne zu einer konkurrenzfähigen AMD-Lösung gegriffen.
 

Locuza

Lötkolbengott/-göttin
ΔΣΛ;5225088 schrieb:
Dafür das Intel keinen Grafikkartenspezialisten gekauft hat, so wie Amd (nämlich Ati), schlägt sich Intel sehr gut muss ich sagen.
Schön zu sehen das Intel da nicht locker lässt, und Amd schritt für schritt immer näher kommt.
Achtungserfolg !
Ich sehe nirgendwo einen Achtungserfolg.
22nm Tri-Gate mit sehr viel Geld führen zu guter Endleistung im Vergleich zur Konkurrenz, wenn diese eine ganze Generation im Node hinterher hinken.
 

M4xw0lf

Lötkolbengott/-göttin
Ich sehe nirgendwo einen Achtungserfolg.
22nm Tri-Gate mit sehr viel Geld führen zu guter Endleistung im Vergleich zur Konkurrenz, wenn diese eine ganze Generation im Node hinterher hinken.

Wollts auch grad schreiben. Intel kann einfach mit doppelt so vielen Transistoren um sich werfen, falls die Ineffizienz ihrer Grafikarchitektur es erfordert. AMD vs. Intel ist wie ein Sprint von Usain Bolt gegen Oscar Pistorius... und der Behinderte mit dem Achtungserfolg ist dabei NICHT Intel :ugly:
 

Locuza

Lötkolbengott/-göttin
Ja so in der Art, allerdings freut es natürlich ungemein das Intel hier deutlich besser geworden ist.
Allgemein für das PC-Gaming ist es sehr gut, wenn der Marktführer von GPU-Marktanteilen den Markt nicht mit unspielbaren Grafimotor ausstattet.
Was auch ganz cool ist, dass läuft ja auch schon alles Richtung "APU" hin, keine getrennten Lösungen mehr.
 

GoldenMic

Kokü-Junkie (m/w)
Währe mal zeit 2 Schienen zu fahren...
Oldschool reine CPU ohne irgendwas und dann wer will eine mit iGPU für simples office. Ein paar Watt lassen sich ohne iGPU sicherlich einsparen oder können die Dinger etwa auf 0W gesetzt werden? Dann ist es einfach nur Platz verschwendung.

Wäre total unsinnig, weil man dann 2 Masken zur Belichtung haben müsste.
Platzverschwendung würde ich das nicht nennen.
 

Rollora

Kokü-Junkie (m/w)
Wer zockt hat ne richtige Graka im PC
Wer nicht zockt braucht keine iGpu mit der Leistung einer HD 6670 :ka:
Gelegenheitszocker haben heutzutage ein Smartphone oder Tablet zur Hand
wovon ich immer noch nachts feucht träume: dass wenn schon 80% der PCs eine iGPU integriert haben, dass die dank OpenCL ansprechbaren Fähigkeiten dieser in jede CPU integrierten Shader, für Physik und KI genutzt werden.
Dann häten wirs endlich für alle: CPU für Weltenberechnung, iGPU für Physik oder endlich mal größere KI Berechnung und die Grafikkarte für die Grafik.
Ich hoffe, dass dank PS4 und Xbox 3 da was entsteht, aber auch, weil Intel in absolut jede CPU nunmal einen Grafikkern stopft.
Mag ja sein, dass der "echte" gamer eine gute CPU und GPU hat, was spricht aber dagegen, gewisse Berechnungen auf spezielle Hardwarebereiche auszulagern, bis vor 10 Jahren hatte der "echte" Gamer noch eine "echte" Soundkarte, Netzwerkkarte usw.

Währe mal zeit 2 Schienen zu fahren...
Oldschool reine CPU ohne irgendwas und dann wer will eine mit iGPU für simples office. Ein paar Watt lassen sich ohne iGPU sicherlich einsparen oder können die Dinger etwa auf 0W gesetzt werden? Dann ist es einfach nur Platz verschwendung.
Graturliere, du hast ein neues Sockelkonzept erfunden, ich würds gleich mal bei Intel anmelden...
ich würde mich gleich beim Patent beteiligen, wenn ich dafür 2 Namen vorschlagen dürfte:
Für die "Büro"sockel, also alles von Lowend bis Performance mit Grafikchip... würde ich vorschlagen wir nennen das Sockel 1155 oder 1150 für die Zukunft,
für das revolutionär neue Konzept der CPUs ohne GPU würde ich Socke 2011 vorschlagen.

Weiß nicht woher ich das hab, das kam mir einfach so in den Sinn:D

Platzverschwendung ist es mitnichten, wenn dank OpenCL endlich weitere Programme von der iGPU profitieren würden. Es gäbe viele Möglichkeiten, so profitieren schon jetzt diverse Programme enorm von QuickSync:
Quick Sync Vs. APP Vs. CUDA : Intel
AnandTech | The Sandy Bridge Review: Intel Core i7-2600K, i5-2500K and Core i3-2100 Tested
Und QuickSync wird mit jedem mal schneller, wenn die iGPU schneller wird, von Sandy auf Ivy Bridge sogar fast um 100%
Ich sehe nirgendwo einen Achtungserfolg.
22nm Tri-Gate mit sehr viel Geld führen zu guter Endleistung im Vergleich zur Konkurrenz, wenn diese eine ganze Generation im Node hinterher hinken.
aha?
Und das auch noch bei einem Bruchteil der Verlustleistung, man darf nicht vergessen, dass man die beste CPU die deutlich überlegen ist UND eine brauchbare GPU auf einem Die vereint, während AMD da grademal mittelmäßige CPU Leistung anbietet, bei der GPU zwar dafür vorne ist, aber ebenso bei der Verlustleistung für solche billigprozessoren Rekorde aufstellt.
Wollts auch grad schreiben. Intel kann einfach mit doppelt so vielen Transistoren um sich werfen, falls die Ineffizienz ihrer Grafikarchitektur es erfordert. AMD vs. Intel ist wie ein Sprint von Usain Bolt gegen Oscar Pistorius... und der Behinderte mit dem Achtungserfolg ist dabei NICHT Intel :ugly:
Dann würden sie aber kaum noch Transistoren für die CPU übrig haben UND dann hätten sie ein enormes Verlustleistungsplus.
So haben sie eine geringe Verlustleistung, hohe CPU Leistung und eine für 90% der Fälle ausreichende GPU unter einem Dach, quasi "gratis". Und nicht zu verachten, was in ein paar Jahren eventuell alles davon profitieren könnte, dass da eine GPU mit OpenCL Fähigkeiten drunter steckt
 
Zuletzt bearbeitet von einem Moderator:
S

Schaffe89

Guest
Rollora schrieb:
Und das auch noch bei einem Bruchteil der Verlustleistung, man darf nicht vergessen, dass man die beste CPU die deutlich überlegen ist UND eine brauchbare GPU auf einem Die vereint, während AMD da grademal mittelmäßige CPU Leistung anbietet, bei der GPU zwar dafür vorne ist, aber ebenso bei der Verlustleistung für solche billigprozessoren Rekorde aufstellt.

Aha?
Er redet von der IGP und nicht von der gesamten CPU und die Effizienz der IGP ist aktuell bei Intel trotz ewig weitem Vorsprung in der Fertigung nicht! effizienter, das ist das Grund, warum das kein Achtungserfolg ist.:schief:
Intel hinkt derzeit von der Architektur meilenweit hinterher, selbst Llano von 2011 ist effizienter, als eine HD 4000 trotz bescheidenem 32nm Prozess.

bei der GPU zwar dafür vorne ist, aber ebenso bei der Verlustleistung für solche billigprozessoren Rekorde aufstellt.

Und wieder der nächste übertrieben negative Seitenhieb anstatt auf den eigentlichen Sachverhalt zu antworten.:schief:

Dann würden sie aber kaum noch Transistoren für die CPU übrig haben UND dann hätten sie ein enormes Verlustleistungsplus.

Intel kann doppelt so viele Ausführungseinheiten für die IGP reservieren und zudem noch kleiner fertigen was die IGP anbetrifft, das mit der Aussage kaum noch Tranistoren für die CPU übrg zu haben ist Käse.

So haben sie eine geringe Verlustleistung, hohe CPU Leistung und eine für 90% der Fälle ausreichende GPU unter einem Dach, quasi "gratis". Und nicht zu verachten, was in ein paar Jahren eventuell alles davon profitieren könnte, dass da eine GPU mit OpenCL Fähigkeiten drunter steckt

Logisch geringe Verlustleistung aufgrund des guten Prozesses.
 
Zuletzt bearbeitet:

Rollora

Kokü-Junkie (m/w)
Aha?
Er redet von der IGP und nicht von der gesamten CPU und die Effizienz der IGP ist aktuell bei Intel trotz ewig weitem Vorsprung in der Fertigung nicht! effizienter, das ist das Grund, warum das kein Achtungserfolg ist.:schief:


Intel hinkt derzeit von der Architektur meilenweit hinterher, selbst Llano von 2011 ist effizienter, als eine HD 4000 trotz bescheidenem 32nm Prozess.
Schneller? Ja. Effizienter. Möglich, aber für einen ehemals reinen GPU Bauer nicht wirklich eine Ingenieursleistung.
Ich hätte dazu auch gerne überzeugende Zahlen

Und wieder der nächste übertrieben negative Seitenhieb anstatt auf den eigentlichen Sachverhalt zu antworten.:schief:
Der Sachverhalt ist, dass Intel in jedem ihrer Prozessoren, die eine geringere TDP, Verbrauch bei gleichzeitig höherer Leistung als die Konkurrenz, zusätzlich noch eine iGPU verbauen, (die somit in 80-90% der PCs vertreten sein wird) für zusätzliche Leistung/ Features. Dass dieser Grafikchip natürlich nicht so schnell ist, als würde man eine vergleichsweise schwache CPU mit möglichst vielen GPU Einheiten ausstatten, um als Herausstellungsmerkmal in Spielen vorne zu sein ist klar. Wäre Intel absolut überall überlegen, gäbs einfach keine Existenzberechtigung mehr für AMD, oder?

Intel kann doppelt so viele Ausführungseinheiten für die IGP reservieren und zudem noch kleiner fertigen was die IGP anbetrifft, das mit der Aussage kaum noch Tranistoren für die CPU übrg zu haben ist Käse.
naja man könnte natürlich statt bislang die Hälfte der Logik für die GPU auch 100% hernehmen, nicht wahr...:schief:

Logisch geringe Verlustleistung aufgrund des guten Prozesses.
Ein neuer Prozess allein ist immer noch kein Grund, für sowohl extrem geringe Leistungsaufnahme, als auch halbwegs hohe Leistung. Der Prozess alleine hilft wenig, ich erinnere an Zeiten, wo Nvidia den deutlich schnelleren Prozess hatte, + 500 vs 300 Mhz Taktüberlegenheit und trotzdem mehr Strom gebraucht hat sowie langsamer war.

Man hat entweder eine schnelle Architektur, die dann weniger Verbraucht, oder man treibt die Architektur zu noch mehr Speed an, was wieder in hohem Verbrauch resultiert. Aber eine Eierlegende Wollmilchsau ist ein neuer Prozess nunmal nicht, zumal die Diskussion sinnlos ist, schließlich ist Intel nicht schuld an AMDs Prozess und es ist dennoch beeindruckend, dass eine Firma die ein relativ geringes Budget in die GPU Entwicklung steckt, im unteren Bereich mit einer Firma mithalten kann die seit zig Jahren praktisch quasi nix anderes gemacht hat.
Die überlegene Effizienz von Llano als gesamte CPU und GPU Kombination muss man mir mal zeigen.

Ich kenne ja nur ungefähr die TDP der HD 4000, die mit ~8 Watt äußerst gering ist, aber ich bin sicher AMD hat mit 8 Watt eine GPU im Angebot die Haswell gerade zu platt macht, oder?
 
Zuletzt bearbeitet:
M

matty2580

Guest
Im klassischen CPU-Bereich würde ich AMD noch nicht abschreiben.
Im Gegensatz zu Intel hat AMD noch sehr viel Potential um ihre CPUs zu optimieren.
Das sieht man ganz gut an Richland. Wenn die Leaks dazu stimmen, dann bekommen wir hier Steigerungen der IPC, von der man bei Haswell nur träumen kann.

Bei der iGPU würde ich aktuell immer AMD empfehlen, da hier deutlich mehr GPU-Leistung vorhanden ist.
Abgesehen davon, dass ich zur Zeit eine einfache Intel CPU + AMD/Nvidia GPU für die bessere Wahl halte.
Und ich selbst niemals ein potentieller APU Kunde sein werde.
 
Zuletzt bearbeitet:

Anchorage

Software-Overclocker(in)
Was Intel vergessen hat ist denke ich mal die Tatsache das AMD weiterentwickelt. Vorallem wenn Amd z.B einen ähnliche APU wie den Jaguar in der PS 4 bringt, sollte dies Passieren und ich denke mal das es so kommen wird wird Intel in dem bereich einfach kein Land mehr sehen.
 

boxleitnerb

Freizeitschrauber(in)
Laut Intel ist die jetzige HD4000 auch auf Höhe einer HD6570/GT630 - guter Scherz.
Tatsächlich ist sie gerade mal etwa halb so schnell.

Nein. Der Vergleich mit den dGPUs gilt nur für Haswell. Sonst wäre Ivy und Haswell ja gleich schnell, wenn man nicht unterscheiden würde, und das ergibt keinen Sinn.
 

Deeron

Software-Overclocker(in)
@Ion: Nur weil du es nicht brauchst heißt es nciht dass dieses Produkt keine Daseinsberechtigung hat, nciht jeder nutzt zwangsläufig Full HD als Auflösung, in den Fällen wäre sowas sehr praktisch oder auch HTPCs können so eine Leistung gebrauchen wenn man mal vom Sofa aus zocken will sofern ein Gamepad vorhanden ist.

Hör auf in mein wohnzimmer zu gucken :ugly:
 

bofferbrauer

Volt-Modder(in)
Nein. Der Vergleich mit den dGPUs gilt nur für Haswell. Sonst wäre Ivy und Haswell ja gleich schnell, wenn man nicht unterscheiden würde, und das ergibt keinen Sinn.

Oh doch ;)

Schau dir das Bild, welches als Aufmacher ausgewählt wurde, noch einmal genauer an: Die Grafikchips sind leistungsmäßig gestapelt, und ganz rechts steht eine AMD/NVidia Grafikkarte zum Leistungsvergleich. Also vergleicht Intel doch seine iGPUs allesamt mit AMD/NVidia Produkten... und das eher schlecht, denn die genannte Leistung erreichen afaik nie im Leben

Hier noch mal das angesprochene Bild:
Intel_HD_Grafik.jpg
 

M4xw0lf

Lötkolbengott/-göttin
Nein. Der Vergleich mit den dGPUs gilt nur für Haswell. Sonst wäre Ivy und Haswell ja gleich schnell, wenn man nicht unterscheiden würde, und das ergibt keinen Sinn.

Auch wenn die HD4000 noch etwas langsamer ist als die HD4200/400/600 GT2-IGPs, werden die alle eben doch mit einer 6570/GT630 verglichen. Und auch die Auflistung bei 3dcenter spiegelt dieses Leistungsgefüge wieder: Intel verspricht eine Haswell-Grafikperformance auf Höhe der GeForce GT 640 | 3DCenter.org
Auch hier wird die Lächerlichkeit dieser Folie deutlich.
 

XE85

Moderator
Teammitglied
Also vergleicht Intel doch seine iGPUs allesamt mit AMD/NVidia Produkten... und das eher schlecht, denn die genannte Leistung erreichen afaik nie im Leben

Hier noch mal das angesprochene Bild:

Das ist doch typisch für Marketingfolien, da wird das eigene Produkt immer so gut als möglich hingestellt. AMD hat damals auch (unter zuhilfenahme des GPU Limits) seinen neuen FX dem 980X gegenübergestellt. Also: :wayne:

Was sie wirklich können werden die Tests zeigen.
 

Locuza

Lötkolbengott/-göttin
Im klassischen CPU-Bereich würde ich AMD noch nicht abschreiben.
Im Gegensatz zu Intel hat AMD noch sehr viel Potential um ihre CPUs zu optimieren.
Das sieht man ganz gut an Richland. Wenn die Leaks dazu stimmen, dann bekommen wir hier Steigerungen der IPC, von der man bei Haswell nur träumen kann.
Bei Richland sieht es nicht nach einem dicken IPC Bonus aus, bezogen auf die Architektur, sondern man hat scheinbar sehr gut an der Stromversorgung gearbeitet, womit feinere Turbostufen möglich sind und das ganze deutlich besser skaliert wie bisher.
Eigentlich auch beeindruckend, dass man "nur" mit paar Tweaks bei der Versorgung einen relativ großen Perf-Bonus erhalten hat oder bzw. eher enttäuschend bei Trinity. Ist glaube ich alles A1 Silizium, weswegen AMD eher "Beta-Produkte" raushaut.
Andererseits ist jetzt scheinbar auch der Zeitpunkt gekommen, wo auch der Prozess als ausgereift bezeichnet werden kann.
Ein nicht kleiner Prozentsatz von Richlands Effizienz kommt wohl von der Foundry.


aha?
Und das auch noch bei einem Bruchteil der Verlustleistung, man darf nicht vergessen, dass man die beste CPU die deutlich überlegen ist UND eine brauchbare GPU auf einem Die vereint, während AMD da grademal mittelmäßige CPU Leistung anbietet, bei der GPU zwar dafür vorne ist, aber ebenso bei der Verlustleistung für solche billigprozessoren Rekorde aufstellt.

Dann würden sie aber kaum noch Transistoren für die CPU übrig haben UND dann hätten sie ein enormes Verlustleistungsplus.
So haben sie eine geringe Verlustleistung, hohe CPU Leistung und eine für 90% der Fälle ausreichende GPU unter einem Dach, quasi "gratis". Und nicht zu verachten, was in ein paar Jahren eventuell alles davon profitieren könnte, dass da eine GPU mit OpenCL Fähigkeiten drunter steckt
Schaffe hat es schon gesagt, kontextbezogen lesen, es ging um Intels Vorsprünge bei der iGPU und wo sie gerade stehen, was für mich beileibe kein Achtungserfolg ist.

Wo ist die Perf/Watt eig. bei Llano oder Trinity im Vergleich zu Intel schlecht gewesen?
Test: Trinity vs. Ivy Bridge im GPU-Test (Seite 14) - ComputerBase

Bei Notebooks etc. ebenfalls.
AMD ist einen ganzen Fertigungsschritt hinterher, schafft es dennoch von der Perf/Watt bei Spielen besser zu sein und einen besseren oder gleichwertigen Idle-Wert zu haben.

Und ich sehe das ganz anders als du.
Intel hat jahrelang kaum etwas gemacht und hat viel Potential bei der iGPU, eine ganze Node sind sie im Vorteil, siehst du doch bei der deutlich besseren Perf/Watt bei Ivy-Bridge, bei einer GPU ist der Prozess noch wichtiger.
Intel hat schon flapsig formuliert, eh unendlich Ressourcen.
AMD hatte nur Mrd. Schulden und läuft seit dem Kauf meistens in Roten Zahlen und wo stehen sie bei den GPUs gerade?
Auf einem Level mit Nvidia, immer noch, trotz deutlich besseren Gewinnen und Umsätzen bei Nvidia.
Klar Defizite sind natürlich dennoch erkennbar, aber rein von der Architektur ist AMD immer noch Top.
Es spielt auf beiden Seiten natürlich ein logisches Gesetzt dahinter , je weiter unten man ist, desto leichter und schneller aufzuholen, mitunter ein Grund, warum AMD wohl überhaupt noch in Schlagdistanz mit Intel ist.

Schneller? Ja. Effizienter. Möglich, aber für einen ehemals reinen GPU Bauer nicht wirklich eine Ingenieursleistung.
Oh je.
 
R

Razier

Guest
Dann würde sie ja Highend Karten aus dem Media Markt wie eine GT 630 platt machen. :lol: :lol: :lol:
 
Oben Unten