Intel Xe-Grafikkarten: Angeblich bis zu 4 Tiles, 4.096 Shader, HBM2E und 500 Watt TDP

Warum wird hier Optimiert gegn Stock verglichen schon mal ne aufgezogene 1080 gesehen? Stell dir vor die Sauft dann keine 300 Watt. Nvidia muss nicht optimiert werden da schon stock sehr sparsam. Sagt einiges aus, Gpus könnens noch immer nicht.

Immer die selben Märchen... ^^

Du bekommst auch eine 1080 problemlos auf 300 Watt, wenn du sie hochtaktest. Klar sind sie deutlich besser als Vega aber ordenltich Strom schlucken können sie trotzdem, wenn sie gefordert werden.
 
Bin mal gespannt ob sich dieses Jahr die Xe Grafikkarten überhaupt in den Consumer-Bereich verirren. Warte ja schon über eine Jahr auf Lakefield und es wird wohl noch min. 6-8 Monate dauern, von daher glaub ich momentan ehr nicht daran... Zumal schon alleine HBM2e in Kombination mit Feveros 3D recht teuer anhört...

Wie auch immer, fürs Datacenter hört sich das ganz gut an, aber einfach mehr der gleichen GPUs auf eine Grafikkarte zu klatschen... Als reiner KI Beschleuniger im Datacenter sicher keine schlechte Option, aber im Consumer gabs das vor 20 Jahren schon mal und war kein Erfolg... Ich denke mal der Herr Koduri arbeitet schon fleißig an der nächsten Generation für 2022 - dann vlt. auch für uns.
 
Zuletzt bearbeitet:
500W sind auch für Datacenter durchaus beachtlich, was man ja auch an der kolportierten 48V Spannungsversorgung sieht. Im Moment liegt der inoffizielle Standard so um die 250W, und diese Zahl zu ignorieren ist gar nicht so einfach wie man zunächst denkt, da Server bzw. HPC Komponenten üblicherweise "passiv" durch die Gehäuselüfter gekühlt werden. Ich will mir gar nicht vorstellen, wie ein 2U Server mit vier dieser GPUs unter Vollast klingt, vorrausgesetzt es geht strömungstechnisch überhaupt. Spätestens wenn die Lüfterblätter am Rand Überschallgeschwindigkeit erreichen ist Schluss mit lustig. :ugly:

Man kann natürlich auch einfach alle Komponenten direkt wasserkühlen, das wird dann eben entsprechend teuer und weniger flexibel. Deswegen sieht man das zumindest in Rechenzentren bis dato relativ selten.
 
Genaues weiß ich nicht (1:1 oder 2:1 oder vielleicht 3:2 Anteil?), aber bei dem, was man so in Interviews mit Koduri rausliest, ist er zumindest auch zu einem Großteil mit Software beschäftigt, die insbesondere bei den kommenden Multi-Chips-Designs von wachsender bedeutung ist: "This means hardware, but also Raja is spending a lot of time with software, and digging deep with Intel’s new oneAPI initiative" und er selbst sagt: "You will have noticed that I’m increasingly focusing on the software, but ultimately my role in Architecture at Intel covers both [auch Hardware]"
Eine neue Grafikchiparchitektur zu entwickeln dauert selbst bei einem eingespielten Team locker 5 Jahre. Und weder ist das neu zusammengestellte Team eingespielt, noch ist er 5 Jahre bei Intel. Zu guter Letzt arbeitet er bei Intel derzeit eher im Bereich der Software statt Hardware (lt Interview)

Zwei Jahre sind dennoch genug Zeit, vor allem in seiner Stellung, das Projekt Xe in gewisse Bahnen zu lenken. Nur weil er sich derzeit auf die Software fokussiert, heißt das nicht, dass er mit der Hardware nichts zu tun hat. Als Chief Architect von Xe ist er maßgeblich für die Entwicklung verantwortlich – Hardware hin, Software her.

Aber beruhigt euch. Ich will hier gar nicht gegen ihn stänkern oder so. Ich liebe meine Radeon VII genauso wie meine Vega 64 LC davor und für die beiden ist er ja auch grundlegend verantwortlich gewesen … Solange man nicht weiß wie viel Leistung am Ende bei den pot. 500 Watt rauskommen, muss das relativ gesehen noch nichts Schlechtes heißen …
 
NV ist Marktführer und natürlich wurden mehr Spiele für NV optimiert als für Radeon. Seit Einführung von Vulkan hat sich da aber einiges zu Gunsten von AMD getan.
Falls Dir bei den PCGH-Test mal aufgefallen ist, das fast ausschließlich ASUS-Vegas o.ä. herangezogen werden, so kann ich Dir nur von MEINER Erfahrung mit MEINER optimierten Vega berichten. Hier liege ich oft in den Benchmarks vor einer 1080. Wahrscheinlich liegt es auch daran, das der Monsterkühler der Sapphire den Boost deutlich länger in Verbindung mit UV halten kann. Aber ja, es gibt Spiele/Anwendungen, da bringt HBCC nichts oder ist sogar kontraproduktiv. Aber da wo es funktioniert, ist es wirklich brauchbar.
Da Intel auf HBM zurückgreift, könnte ich mir gut vorstellen, das Consumer-Highend von Intel auch HBM bekommen könnte. Schließlich muß Intel sich in einem aufgeteilten und bestehenden Makt etablieren und halten. Ähnlich wie AMD, als Kaufanreiz bei Fury und Vega.
Xe ist eine Topklasse und in solchen Klassen wurde oft Neues und Teures verbaut, um später im Massenmarkt aufzutauchen.
Von daher: abwarten und Tee trinken :D
Gruß T.

Was soll mir das jetzt sagen?
Das man am besten nur Spiele spielt die auf AMD optimiert sind? Außerdem ist es bei vielen Spielen gar nicht so, das die derart gut auf AMD, oder Nvidia optimiert sind, sondern den jeweiligen Chipdesigns haben halt unterschiedliche Stärken und Schwächen! Aber das ist natürlich schwer vorstellbar.

Außerdem mit meiner GTX1070@2,063GHz samt 4750MHz Speichertakt, liegt in den meisten Fällen auch auf 1080 Niveau, von daher schön, das eine optimierte besser geht, als eine unoptimierte ;). Das ist normal ;)
HBCC bringt für Spiele aktuell doch nur in absoluten Ausnahemfällen etwas. Dazu war es doch auch so, das AMD hier mit den 8GB schlechter zurecht kam, als Nvidia.

Wie viele Spiele werden denn mit Vulkan veröffentlicht, prozentual als Anteil von allen Veröffentlichungen?

Am Rande, ich bin natürlich nicht gegen HBM, aber das muss sich auch noch weiter entwickeln. Außerdem ist das auch der Weg zu kleineren dGPUs... Und Mini ist sexy.


Immer die selben Märchen... ^^

Du bekommst auch eine 1080 problemlos auf 300 Watt, wenn du sie hochtaktest. Klar sind sie deutlich besser als Vega aber ordenltich Strom schlucken können sie trotzdem, wenn sie gefordert werden.

Der Vergleich ist dann aber wieder über 400W zu knapp 300W. Außerdem wer seine 1080 optimiert, braucht keine 300W um eine max optimierte Vega zu schlagen, zumindest im Schnitt aller Spiele.
Natürlich wird man immer Spiele finden,, die besonders gut auf der einen Architektur laufen und ander auf der anderen Architektur.

Bei meiner GTX1070 ist es zum Beispiel auch so, das bis 2063MHz der Chip sehr genügsam ist, was die nötige Spannung angeht, will man da drüber, so explodiert die benötigte Spannung und damit auch der Verbrauch. Optimieren bedeutet dann nur bis zu 2063MHz zu gehen.
 
Ich würde davon ausgehen, dass Intel für sich reklamiert, dass sie bei Leistung pro Watt nicht zu weit hinter der Konkurrenz liegen, sondern eher einen leichten Vorsprung haben. Die Watt-Angaben sind dann als Ankündigung zu sehen in welcher Kategorie man mitspielen will. Zuletzt war ja immer von Karten im Gaming Einstiegssegment die Rede was so gar nicht dem Image von Intel entspricht. Diese Aussagen korrigieren das nun.
 
Davon ausgehend muss man annehmen, dass ein Tile mit 128 Ausführungseinheiten (EUs) ausgestattet ist. Das im Januar gezeigte Development Vehicle hatte angeblich 96 Ausführungseinheiten und 768 Shader, war also demnach teildeaktiviert.


Ihr schreibt Stuss. Die DG1 ist nicht teildeaktiviert, sie ist vollaktiviert. DG1 basiert auf Gen12 LP und hat mit Artic Sound nichts zu tun, welcher auf Gen12 HP basiert. Gen12 LP hat auch keine Tile Module, sondern es gibt nur GT2 als derzeit größtmögliche Option mit einer Scheibe (slice), die im Vollausbau 96 EUs besitzt. Das könnt ihr auch am Die Shot von Anandtech sehen, einfach mal zählen, mehr als 96 EUs sind es nicht. DG1 hat mit dem Leak überhaupt nichts zu tun. 128 EUs im kleinsten Ausbau ist nur für die Gen12 HP korrekt. Das solltet ihr wissen als PC Games Hardware.
 
Ihr schreibt Stuss. Die DG1 ist nicht teildeaktiviert, sie ist vollaktiviert. DG1 basiert auf Gen12 LP und hat mit Artic Sound nichts zu tun, welcher auf Gen12 HP basiert. Gen12 LP hat auch keine Tile Module, sondern es gibt nur GT2 als derzeit größtmögliche Option mit einer Scheibe (slice), die im Vollausbau 96 EUs besitzt. Das könnt ihr auch am Die Shot von Anandtech sehen, einfach mal zählen, mehr als 96 EUs sind es nicht. DG1 hat mit dem Leak überhaupt nichts zu tun. 128 EUs im kleinsten Ausbau ist nur für die Gen12 HP korrekt. Das solltet ihr wissen als PC Games Hardware.

Sei doch froh, dass du schlauer bist als die Redaktion. So haben alle was von deinem Wissen.
 
Ich glaub, ich kauf mir den Hanbacher Forst und verheiz diese komischen Holzdinger und betreibe damit meinen zukünftigen IntelPC.
So ein 10070K mit ner X -Graka sollte höchstens 5 Bäume die Stunde verbrauchen...Geht doch!
Gruß Yojinbo
 
500W sind auch für Datacenter durchaus beachtlich, was man ja auch an der kolportierten 48V Spannungsversorgung sieht. Im Moment liegt der inoffizielle Standard so um die 250W, und diese Zahl zu ignorieren ist gar nicht so einfach wie man zunächst denkt, da Server bzw. HPC Komponenten üblicherweise "passiv" durch die Gehäuselüfter gekühlt werden. Ich will mir gar nicht vorstellen, wie ein 2U Server mit vier dieser GPUs unter Vollast klingt, vorrausgesetzt es geht strömungstechnisch überhaupt. Spätestens wenn die Lüfterblätter am Rand Überschallgeschwindigkeit erreichen ist Schluss mit lustig. :ugly:

Man kann natürlich auch einfach alle Komponenten direkt wasserkühlen, das wird dann eben entsprechend teuer und weniger flexibel. Deswegen sieht man das zumindest in Rechenzentren bis dato relativ selten.

Ich denke die Zukunft im HPC-Bereich werden solche Tauchlösungen sein: Novec™ High-Tech Fluessigkeiten | 3M Deutschland

Damit kannst du dutzende kW Verlustleistung problemlos abführen, fast ohne Geräuschentwicklung.
 
Ich denke die Zukunft im HPC-Bereich werden solche Tauchlösungen sein: Novec™ High-Tech Fluessigkeiten | 3M Deutschland

Damit kannst du dutzende kW Verlustleistung problemlos abführen, fast ohne Geräuschentwicklung.
Ich glaubs nicht. Eher verflüssigtes Kohlendioxid, was man sogar atmosphärisch rückgewinnen könnte. Auch wenn Novec unter der üblichen Grenzwerttoxität liegt (ALT, GWP, NOAEL) heißt es nicht das es für Mensch und Umwelt unbedenklich ist. CO2 ist der höhere einmalige Materialaufwand, für die Umwelt und bei Rückgewinnung aber deutlich besser. Wird womöglich sogar staatlich oder EU intern gefördert. Geschlossen müssen beide Systeme sein.
 
Sei doch froh, dass du schlauer bist als die Redaktion. So haben alle was von deinem Wissen.

Spar dir die Polemik. Jeder mit etwas Ahnung von der Materie weiß, dass Tigerlake und DG1 im Vollausbau 96 EUs besitzen. Froh wäre ich, wenn die PCGH mehr Kompetenz zeigen würde und das ganze mal berichtigen würde. Es wirft kein gutes Licht auf das Blatt.
 
Wo genau hast du bitte Polemik gefunden?
Für mich wird das mit Intel genau dann interessant, wenn die erste Karte verfügbar ist und getestet werden kann. So lange ist das Thema bestimmt keine Polemik wert.
 
Xe HP = 512 EUs per tile
Xe LP = 128 EUs per tile

smilie_denk_09.gif

Exclusive: Intel Xe HP 4-Tile 500W GPU EU Count Leaked, No It's Not 512
 
Zurück