Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

GCN ist kaum effizienter als VLIW4. Die 7970 GHz hat gute 60% mehr Rechenleistung und Bandbreite als die 6970 (4,3 TFLOPs vs. 2.7 TFLOPs) und ist im Schnitt auch gute 60% schneller.
Da kommst du ja auch schon an skalierungstechnische Probleme.
Die Spitze eines Chips eignet sich auch nicht als Vergleichsmaßstab für die ganze Architektur.
Es gibt ja einige Test, die zeigen wie viel mehr Performance GCN aus gleichen theoretischen Daten heraus holt.
Die andere Frage ist dann, ob GCN auch energetisch und Flächenmäßig effizienter als VLIW4 ist?
Kann man ja schwer beantworten, da man die genauen Fertigungsparameter kennen müsste.
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Realistisch geschätzt, sollte Intel die Performance der HD 4000 mit der HD 5200 + ED Ram um ca 70 bis 100% überbieten können und wird sich dann bei Richland + ~ 10% wiederfinden.
Schon die 4600er ist +20 % vor der 4000er, die 5200er bietet doppelt so viele EUs wie die 4600er und den EDRAM - wie soll dann die 5200er nur 70 bis 100 % schneller sein als die 4000er (bei ähnlichem Takt)? Ich bezweifle, dass die 5200er so schlecht skaliert wie du es hier darstellst.
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Da kommst du ja auch schon an skalierungstechnische Probleme.
Die Spitze eines Chips eignet sich auch nicht als Vergleichsmaßstab für die ganze Architektur.
Es gibt ja einige Test, die zeigen wie viel mehr Performance GCN aus gleichen theoretischen Daten heraus holt.
Die andere Frage ist dann, ob GCN auch energetisch und Flächenmäßig effizienter als VLIW4 ist?
Kann man ja schwer beantworten, da man die genauen Fertigungsparameter kennen müsste.

Diese Tests sind zwar theoretisch interessant, aber praktisch ist der Leistungsdurchschnitt am relevantesten. Wenn man sich aber z.B. 7870 vs 6970 anschaut, hast du schon Recht - ein wenig effizienter ist GCN in Form vom z.B. Pitcairn schon. Nur Quantensprünge würde ich nicht erwarten. Der Rest ist wegen 28 vs 40nm nicht vergleichbar.
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

GCN ist kaum effizienter als VLIW4.

Woran machst du das denn fest? Die Performancesteigerung wird sich an den Faktor 2 annähern, schließlich kann man GCN deutlich höher takten, 1000mhz werden wohl keine Seltenheit sein @ Stock.
Zudem steigt die Bandbreite wahrscheinlich um mehr um das doppelte an, die Leistung dürfte sich an einer HD 7750 orientieren, im Endeffekt sogar gleich sein, wenn nicht vielleicht höher wegen mehr Chiptakt.

PCGH_Marc schrieb:
wie soll dann die 5200er nur 70 bis 100 % schneller sein als die 4000er (bei ähnlichem Takt)?

Erstens wird die Bandbreite schonmal stark limitieren, ähnlich wie bei AMD mit Richland oder Trinity, wie möchte Intel die Spieleleistung mit ED-Ram groß beeinflussen?
Auf den bisherigen Slides, wird die integrierte Grafik mit ED-Ram doch gar nicht schneller angepriesen oder doch?

Ich bezweifle, dass die 5200er so schlecht skaliert wie du es hier darstellst.

Falls Intel die Performance von 16 auf 40 EU´s verdoppelt, sehe ich das als keine schlechte Skalierung.
Ich erwarte aber viel weniger wie Intel in den Folien anpreist. Sandy auf Ivy hat man doppelte Performance gesagt, rausgekommen sind 50%, also kann man sämtliche Intel Angaben halbieren, entsprechend der Tradition.

Ergo laut Intel HD 4600 zu HD 4000 35 bis 70%, halbieren auf 17 bis 35%, wenn man sich ansieht, was Tomshardware gemessen hat, hm.. vielleicht eher 25% dann mit verbesserten Treibern?
Soll man also Intels Angaben um mehr als die Hälfte zurechtstutzen?

Was bleibt dann noch übrig? Genau in etwa 80% Merhleistung von der HD 4000 zur HD 5200 mit EDRam, 3D Mark ist wurscht, es zählen reale Spiele und da würde ich mir wünschen dass man in den kommenden heften einen IGP Leistungsindex hinzufügt, aber vielleicht ist sowas ja eh schon längst geplant.^^
 
Zuletzt bearbeitet:
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Diese Tests sind zwar theoretisch interessant, aber praktisch ist der Leistungsdurchschnitt am relevantesten. Wenn man sich aber z.B. 7870 vs 6970 anschaut, hast du schon Recht - ein wenig effizienter ist GCN in Form vom z.B. Pitcairn schon. Nur Quantensprünge würde ich nicht erwarten. Der Rest ist wegen 28 vs 40nm nicht vergleichbar.
Der Leistungsdurchschnitt eignet sich dann für was? Um Architekturen zu vergleichen?
Wenn ich es nach der Art mache, dann komme ich zu dem Ergebnis das VLIW5 gar nicht so viel effizienter ist als VLIW5 :ugly:
Die 5870 war ein verdoppelter 4870 und hat nur bis zu 70% skaliert.
Es skaliert einfach schlechter, später wurde es mit neuen Treibern und größeren Problemen besser.
Aber das weist du ebenfalls bestens.
Was ist wenn du der 6970 noch 60% mehr Rechenleistung und 60% mehr Bandbreite gibst?
Skaliert die Lösung dann auch bis zu 60% wie Tahiti Ghz?
Oder wird es dann nur ein Bonus von 30% sein?
GCN ist vielleicht der Grund, wieso die Theorie noch in die Praxis hinein skaliert.

Schau dir einfach mal Cape Verde oder Pitcairn vs. 6930 oder Vertretter der VLIW5-Fraktion mit ähnlichen Daten-Blättern an.
Da hat die GCN Architektur 30-60% mehr Bums pro theoretischem GFLOP.
[ht4u] VLIW5 vs. GCN: HD5770 and HD7770 at the same clocks

Dazu halt noch sub-optimales Front-End von Tahiti, essentielle Fähigkeiten für das Computing, VOLATILE tag, Memory-Instructions, Atomics, 64b-Pointer etc.
Wie fett machen die zusätzlichen Fähigkeiten eig. eine ALU oder den Commander? Wie würde es dann mit VLIW4 aussehen?
Geht es auch nicht darum GCN in einer APU zu sehen und dann mit VLIW4 zu vergleichen, wo es klar ersichtlich ist das mit GCN sich für das ganze System enorme Vorteile auftun, wie eben der gemeinsame Adressraum?

Das Thema ist ja viel zu komplex und umfangreich um das einfach anzuschneiden.
Vielleicht skaliert VLIW4 auch besser für Problem X bei X-Shader, bei anderen dafür umso schlechter.
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Falls Intel die Performance von 16 auf 40 EU´s verdoppelt, sehe ich das als keine schlechte Skalierung.
Ich erwarte aber viel weniger wie Intel in den Folien anpreist. Sandy auf Ivy hat man doppelte Performance gesagt, rausgekommen sind 50%, also kann man sämtliche Intel Angaben halbieren, entsprechend der Tradition.

Ergo laut Intel HD 4600 zu HD 4000 35 bis 70%, halbieren auf 17 bis 35%, wenn man sich ansieht, was Tomshardware gemessen hat, hm.. vielleicht eher 25% dann mit verbesserten Treibern? Soll man also Intels Angaben um mehr als die Hälfte zurechtstutzen?

Was bleibt dann noch übrig? Genau in etwa 80% Merhleistung von der HD 4000 zur HD 5200 mit EDRam, 3D Mark ist wurscht, es zählen reale Spiele und da würde ich mir wünschen dass man in den kommenden heften einen IGP Leistungsindex hinzufügt, aber vielleicht ist sowas ja eh schon längst geplant.
Intel sagte 2700k gegen 3770K seien es im 3DMV +88 % im P-Preset, wir habe in Spielen so etwa +60 % gemessen.

Und ja, es gibt einen Index, allerdings nicht auf der Startseite ... aber im EK wird's das iwie geben.
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Kommt die Grafik mit ED-Ram nicht erst im Oktober?
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Die mobile SKUs laut Gerüchten schon, ob die R-SKUs für AIOs schon im Juni kommen ist noch nicht durchgesickert.
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Das erste klingt so wie Sorry, aber auch wenn Intel die Physik auf ihrer Seite hat, glaubst du allen ernstes AMD und Nvidia können diese nicht außer Kraft setzen?

Hab ich das irgendwo geschrieben, dass für Nvidia und AMD die Physik nicht gilt? Ich denke nicht :schief:

Was soll ich denn logisch gesehen erwarten, wenn ein Transistor bei AMD später 4 mal so viel Fläche verbraucht?

Das einzigste das zählt ist die Chipfläche schon klar :schief: Wenn Nvidia und AMD einfach das bessere Konzept zu bieten haben, bringt intel auch der Fertigungsvorsprung nichts. Langfristig können Nvidia und AMD da übrigens auch nachziehen, aber das möchte so jemand der wohl absolut nur auf intel fokusiert ist nicht hören. Die nächsten Steps in der Fertigung werden für intel schwieriger werden aufgrund der sehr kleinen Strukturen und da sollte es für TMSC und Global Foundries gut möglich sein, den Rückstand einwenig einzuholen.

An was soll ich denken wenn Intel bessere Schaltzeiten erreicht, indem sie "einfach" wieder einmal deutlich näher source und drain nebeneinander haben? Ganz zu schweigen von der energetisch günstigeren Fertigung.
Intel hat mit Haswell angefangen die 22nm Bibliothek auf höhere Logikdichte zu optimieren, damit die iGPUs nicht mehr soviel Fläche verbrauchen, da ist Intel noch sehr schlecht.
Broadwell soll laut Mitarbeiter dann ein viel größeres Kaliber sein.

Und Nvidia und AMD optimieren nichts und liegen den ganzen Tag nur auf der faulen Haut:schief: Mehr kann man aus deinen Ausführungen nicht entnehmen, wenn man mal die Lobhymnen außen vor lässt.
Ich möchte erstmals Benches dazu sehen und dann sieht man weiter. Larabee sollte ja auch mal richtig gut werden... Hat man ja gesehen!
Solche sinnfreien Beiträge wie deine die permanent nur eine Seite am loben sind und so tun, als wären die andern alles faulen Säcke sind einfach nur ätzend :daumen2: Daher kannst du es dir auch sparen mich weiter zu zitieren, da du es auf die ignore Liste geschafft hast. Wenn ich Marketing gebluber lesen möchte, geh ich nicht auf pcgh!
Was für Fortschritte erzielt wurden, kann ich dem Text entnehmen und wie schon mehrfach erwähnt, die andern schlafen nicht!

mfg

Bärenmarke
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Hab ich das irgendwo geschrieben, dass für Nvidia und AMD die Physik nicht gilt? Ich denke nicht :schief:
Nein, aber der Text hat für mich Logik außer Kraft gesetzt.

Das einzigste das zählt ist die Chipfläche schon klar :schief:
Intel könnte Tahiti in 14nm wohl unter 120mm² hinbekommen.
Aber das bringt ja nichts. :schief:
Intel könnte in ihre Mainstream APU einen Tahiti reinknallen, wo AMD schon aus wirtschaftlichen Gründen nicht einmal daran denken müsste eine 500mm² APU aufzulegen.

Wenn Nvidia und AMD einfach das bessere Konzept zu bieten haben, bringt intel auch der Fertigungsvorsprung nichts.
Welches bessere Konzept bieten sie denn genau an?

Langfristig können Nvidia und AMD da übrigens auch nachziehen, aber das möchte so jemand der wohl absolut nur auf intel fokusiert ist nicht hören. Die nächsten Steps in der Fertigung werden für intel schwieriger werden aufgrund der sehr kleinen Strukturen und da sollte es für TMSC und Global Foundries gut möglich sein, den Rückstand einwenig einzuholen.
Ja und da sind beide sehr aggressiv und 14xm soll schon 2015 kommen? Aber hat sich ja neulich glaube ich wieder etwas verschoben.
TSMC ist dann bei 16nm FinFet irgendwo 2015/16?
Außerdem ist der 14xm Prozess einer für low-power, das wird noch dauern, bis fettere Chips da vom Band laufen.
Intel wird immer noch ein paar Jahre Vorsprung haben und dann ist Intel auch Eigenfertiger und kann die Parameter perfekt einstellen und ist beim Time-to-Market ein gutes Stück fixer.


Und Nvidia und AMD optimieren nichts und liegen den ganzen Tag nur auf der faulen Haut:schief: Mehr kann man aus deinen Ausführungen nicht entnehmen, wenn man mal die Lobhymnen außen vor lässt.
Habe ich auch nicht behauptet, aber ich sehe einen schrecklichen Vorteil. Was soll ich sagen? AMD und Nvidia bauen Architekturen die 7 mal so gut sind, wie die von Intel, welche praktisch unendlich Geld haben und viele Ingenieure und der Konkurrenz 2-3 Jahre bei der Fertigung voraus sind? Wird schon schiefgehen oder wie?
Das ist so verfestigt, ich habe da nicht all zu große Hoffnung. Die kleinen sitzen doch im Teufelskreis und Intel auch, Marktführer, bekommt Geld, Geld ab in die Forschung, gute Produkte wieder Geld.
Und AMD, sehr schöne Zahlen, Nvidia geht es noch gut.

Ich möchte erstmals Benches dazu sehen und dann sieht man weiter. Larabee sollte ja auch mal richtig gut werden... Hat man ja gesehen!
Ja eine schwere Geburt, jetzt in der vierten Revision hat er es auf den Markt als Xeon Phi geschafft.
Eine Granate ist er nicht geworden, aber er kann von heute auf morgen relativ gut mithalten und wird in 22nm gefertigt.
Wie viel Fläche und Strom der frisst, wenn er in 28nm gefertigt wird?
Intel hat doch schon wieder eine Konkurrenzfähige Lösung herausbringen können, die extrem von der besseren Fertigung profitiert.
Ohne würde Intel bei vielen Segmenten deutlich schlechter dastehen und wäre auch erreichbar.


Solche sinnfreien Beiträge wie deine die permanent nur eine Seite am loben sind und so tun, als wären die andern alles faulen Säcke sind einfach nur ätzend :daumen2:

Daher kannst du es dir auch sparen mich weiter zu zitieren, da du es auf die ignore Liste geschafft hast. Wenn ich Marketing gebluber lesen möchte, geh ich nicht auf pcgh!
Ohne Worte.
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

AMD ist gerade Faktor 2 vorne, dass ist nichts was Intel nicht aufholen könnte.


Im Notebook Segment ist AMD gerade mal 30% vorne bzw. im ULV maximal Gleichstand. Intel wird mit der GT3 vorbeiziehen und die GT2 noch enger an Richland liegen. Außerdem ist AMD nur mit einem einzigen Modell überlegen, welches nur mit zusätzlicher Grafikkarte angeboten wird.
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Also- generell... bei einen i3 sehe ich eine integrierte Grafikeinheit noch ein- aber was Intel da macht is Blödsinn.
Wer hier mit einen i5 oder gar mit einen i7 zockt mit der umsonstigen internen Grafikeinheit ?
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Hier vermutlich die wenigsten, im Massenmarkt jedoch wahrscheinlich ein nicht zu unterschätzender Anteil und im mobilen Sektor ebenfalls.
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Ich hol mir son Ultrabook mit Intel HD Graphics 5200 (GT3), irgendjemand ne Idee was das wohl kosten wird?
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Also- generell... bei einen i3 sehe ich eine integrierte Grafikeinheit noch ein- aber was Intel da macht is Blödsinn.
Wer hier mit einen i5 oder gar mit einen i7 zockt mit der umsonstigen internen Grafikeinheit ?

Hier vermutlich die wenigsten,....

Könnt ihr bei PCGH.de nicht nochmal Virtual-VSync von Lucidlogix testen ?
Das soll ja die integrierte Grafikeinheit zum FPS buffern nehmen vielleicht ist mit Haswell da noch eine Steigerung fest zustellen,
wenn die iGPU auch schneller arbeiten kann.

Mit Virtual Vsync nimmt sich Lucidlogix des "Input-Lag" Problems an. Möglich wird dies dadurch, dass sich die diskrete und die intergrierte GPU die Aufgaben teilen. Während die diskrete Grafikkarte mit den Rechen- und Renderaufgaben beschäftigt ist, wird die integrierte GPU für die Synchronisation mit dem Monitor herangezogen.
Bei aktiviertem Virtual Vsync verhält sich also die diskrete GPU so, als wäre kein Vsync aktiviert und füllt ihre Framebuffer fortlaufend mit neuen Bildinformationen, ohne Rücksicht auf den Bildaufbau des Monitors. Die Spiele-Engine kann der diskreten GPU also kontinuierlich und vor allem recht homogen Daten zusenden, ohne "Pausen" einlegen zu müssen weil die GPU den Bildpuffer bereits gefüllt hat und auf den nächsten Monitor-Refresh warten muss.




Die Bilddaten werden dann vom Framebuffer der diskreten Grafikkarte in den Framebuffer der integrierten GPU kopiert, die sich darum kümmert die Bildinformationen mit dem Bildaufbau des Monitors zu synchronisieren. Hier beginnt die "Magie", über die Lucidlogix unter Verweis auf laufende Patentverfahren keine näheren Auskünfte gibt. Das Zusammenspiel der beiden GPUs muss sicherstellen, dass der möglichst richtige Frame pünktlich zum Refresh an den Monitor gesendet wird.
Faktisch bedeutet das, dass anhand eines Algorithmus entschieden werden muss, ob die integrierte Grafik zu einem bestimmten Zeitpunkt den Frame n aus dem Framebuffer der diskreten GPU übernimmt, oder ob es sinnvoller ist, auf den Frame n+1 zu warten, weil dieser fertig werden wird, bevor der Monitor beginnt, das nächste Bild aufzubauen.
Das ganze ist dann auch tatsächlich messbar, in unseren Tests sehen wir beispielsweise variable Frameraten über 60 FPS, gleichzeitig ist aber kein Tearing auszumachen. Diese variablen FPS geben dann Aufschluss über das Reaktionsverhalten der Spiel-Engine auf Nutzereingaben, nicht über dargestelle Bilder auf dem Monitor, die entweder 60 Hz oder einem ganzzahligen Teiler davon entsprechen.
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

die intel igpu kann doch nicht ein mal mit einer alten 2900xt/8800gtx (2007) mithalten warum also der hype? warum das schön gerede? es ist und bleibt eine billige alternative!
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

die intel igpu kann doch nicht ein mal mit einer alten 2900xt/8800gtx (2007) mithalten warum also der hype? warum das schön gerede? es ist und bleibt eine billige alternative!
Das gilt ja dann auch für AMDs APUs oder nicht?
Welchen Markt willst du anschauen, Mobile, ULT, Desktop?

Ralf hat ganz Recht, je nach Segment hat Intel genau so viel GPU-Power, weil sie dank dem niedrigerem Verbrauch besser hantieren können.
Und wo ist der Hype? Hat irgendjemand gesagt, wie unendlich Geil die Haswell iGPU ist und das jeder das kaufen will?
Ich denke nicht, aber sie sind sehr interessant, haben halt auch das erste mal eDRAM.
 
AW: Haswell-Grafikeinheit: Intel spricht über Leistung, Features und Namensgebung

Intel ist dank der kleinen Fertigung auch so gut dabei.
Lass mal AMD eine APU in 22 oder 14nm fertigen, das Teil schnupft dann eine GTX 650 zum Frühstück weg. :D
 
Zurück