Intel Xe: Raja Koduri zeigt Fotos aus dem Labor inklusive Arctic Sound

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Xe: Raja Koduri zeigt Fotos aus dem Labor inklusive Arctic Sound

Für Intels-Grafikchef Raja Koduri stand kürzlich ein Tagesausflug in das Xe-Labor an. Dort hat er auch einige Fotos gemacht, die er direkt via Twitter geteilt hat. Einige neue Details sowie ein "Big Fabolous Package" sind ebenfalls mit von der Partie.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Xe: Raja Koduri zeigt Fotos aus dem Labor inklusive Arctic Sound
 
Ja das ist er, aber die Frage ist eher ob Vega leistungstechnisch so schwach war weil es nicht besser ging oder Intel schon viel länger Konduri bezahlt als es AMD lieb ist.
Wäre ja nichts neues das Intel schamlos manipuliert und eine gute Erklärung warum sie Konduri haben wollten.

Aluhüteverbot sollte es geben.


Die Frage sollte sein, wie hätte Vega werden können unter Koduri´s Leitung wenn AMD Führung es zugelassen hätte. Es war ja eher so, das man gar nichts daran ändern konnte. So musste AMD zu gunsten von ZEN seine Prioritäten klar setzen. Da kam halt erst ZEN, dann Vega und co.

Es grenzt an Schwachsinnigkeit, wenn mna glaubt ein man verbockt eine GPU Generation, oder trägt alleine die Verantwortung, solange er nicht parallel auch das höchste Tier im Unternehmen ist und alles alleine entscheiden könnte.

Klingt etwas böse von mir. Ist auch eigentlich gar nicht so gemeint, aber dieses einem Mann die Schuld für den Vega Flop zu geben, ist einfach ein Unterstreichen dessen, was man nicht versteht.
 
Ist das nicht der Vega Typ? Das war ja der größte Flop der Gpu Geschichte.

Hat auch an Navi bzw Navi 2 mitgearbeitet. Und Navi ist bislang doch ganz gut.
Zum Vega Projekt bzw GCN Architektur kam er erst mittendrin dazu, bei Navi war er von Anfang an dabei

Der Button "Hier klicken für externe Inhalte anzeigen" funktioniert bei mir im Firefox nicht, aber im Chrome schon. Ist das nur bei mir so?

Ja bei mir im Firefox für Android funktioniert. Eventuell hast du ein Addon an das Twitter blockt?
Ja das ist er, aber die Frage ist eher ob Vega leistungstechnisch so schwach war weil es nicht besser ging oder Intel schon viel länger Konduri bezahlt als es AMD lieb ist.
Wäre ja nichts neues das Intel schamlos manipuliert und eine gute Erklärung warum sie Konduri haben wollten.

Ich mag Verschwörungstheorien. Vor allem völlig an den Haaren herbeigezogene.
 
Zuletzt bearbeitet:
Was soll an Vega 56 gut sein ? Sauft wie ein och für die Leistung das auch noch sehr viel später als die Konkurrenz und Sauteuer.

Vega 56 ist gut und stellenweise bei Standardeinstellungen genauso effizient wie Pascal. Hat sogar PCGH in der Print bewiesen.
Erst wenn man die Karte voll auslastet säuft die mehr, vor allem bei Übertaktung dann sogar extrem.
Wer also VSync oder Framelimiter einsetzt, kann bedenkenlos nutzen, ohne wirklich höhere Stromkosten.
Und bei vega muss oder sollte man eigentlich eh undervolten, was nochmal richtig viel Strom einspart, und dabei kann dann trotzdem noch der Standardtakt mit Boosttakt ganz normal eingehalten werden ohne Leistungsverlust also.
Jeder, der seinen prozessor oder Grafikkarte falsch nutzt, mus smit sehr hohem Stromverbrauch rechnen.
Schaut euch aktuell Intel an.
Über den 9900K(S) und 10990K wird viel geredet.
Die Dinger können bis 210 oder 250 Watt locker wegziehen, mein 3700X bleibt stur maximal bei 88 Watt.
Wenn ich im Bios alle was verstelle und Allcore übertakte, zieht meiner aber auch glaube ich so 110 Watt.
Wer jetzt im Bios korrekte Herstelelrvorgaben zurück einstellt (Mainboardanbieter übertakten!!!) und dann Spiele startet, wo auch der Bildschirm (vsync) oder ein Fremlimiter die Berechnungszeit verkürtzt, oder wo einfach nur die CPU gar nicht wirklich gefordert wird, der kann mitunter genau so effzient unterwegs sein wie ein 3800X.
Es komtm halt immer auf das Einsatzgebiet drauf an udn wie man die Dinge nutzt.
Ich fahre FullHD mit 120hz, also wird mein Prozi sehr stark gefordert.
Verwendet jemand 4K mit 60hz, sinkt die Auslastung udn somit die Stromaufnahme.
Das Gleiche ist andersherum mit den Grafikkarten.
Na ja, ich kann mich nicht so gut ausdrücken, ich hoffe ich werde verstanden.
 
Was soll an Vega 56 gut sein ? Sauft wie ein och für die Leistung das auch noch sehr viel später als die Konkurrenz und Sauteuer.

Das €/FSP Verhältnis !!
Die Vega 56 war der Gegenpart zur GTX 1070 und die 64´er zur GTX 1080.
Schau Dir die Benchmarks an, da liegen die AMD Karten vor ihren Gegenspieler und sind / waren günstiger !!
Ja, zu spät und bei mehr Verbrauch, aber INTEL User stört (neuerdings) der Verbrauch eh nicht ... ;-)

p.s. hab für meine Vega 56 damals 298 € inkl. 3 Games bezahlt. Für den Preis gab es bei "Team Green" einfach mal nüschte.

MfG Föhn.
 
Das €/FSP Verhältnis !!
Die Vega 56 war der Gegenpart zur GTX 1070 und die 64´er zur GTX 1080.
Schau Dir die Benchmarks an, da liegen die AMD Karten vor ihren Gegenspieler und sind / waren günstiger !!
Ja, zu spät und bei mehr Verbrauch, aber INTEL User stört (neuerdings) der Verbrauch eh nicht ... ;-)

p.s. hab für meine Vega 56 damals 298 € inkl. 3 Games bezahlt. Für den Preis gab es bei "Team Green" einfach mal nüschte.

MfG Föhn.

Preis/Leistung war bei Vega gut, das stimmt vor allem beim Abverkauf dann.
Die waren aber nie für den Preisbereich gedacht gewesen. Chipgröße (300 vs 500)Spezial RAM Verbrauch und Co haben gezeigt, dass AMD eigentlich nie mit der 1080 sondern eher mit Ti und Titan konkurrieren wollten

Und die Verbräuche bei Intel sind genauso furchtbar wie damals bei dem 5 ghz Bulldozer
 
[...]Und die Verbräuche bei Intel sind genauso furchtbar wie damals bei dem 5 ghz Bulldozer

Im übertragenene Sinne weiß ich was du meinst, rein auf die technische Seite geblickt, trifft das natürlich nicht zu. ;-)
Die 5 GHz erreichte AMD erst mit Piledriver, der dann nachvollziehbarerwweise auch gleich das Ende der FX-Serie einläutete. Der konnte schon damals leistungstechnisch kaum mit einem 4770K mithalten und stromtechnisch verbrauchte der FX-9590 mindestens das Doppelte des Intel-Systems.
Aber selbst mit heutigen Architekturen verglichen steht Bulldozer/Piledriver schlecht dar. Im Cinebench R15 MT ist ein 9900K um gut den Faktor 2,8x leistungsfähiger und verbraucht dennoch weniger Leistung als das alte Piledriver-Modell.
Noch schlechter wird das Verhältnis beim Vergleich gegen den 10700K. Die CPU verbraucht etwa gleich viel wie der 9900K und damit ebenfalls weniger, das aktuelle Intel-System ist im R15 jedoch gut um Faktor 3,1x schneller, hier hat sich also durchaus einiges getan.

OnTopic: Darüber hinaus war Vega 10 keinesfalls schlecht, lediglich die Erwartungshaltung war zu hoch, da man an der technischen Spitze nicht ganz mithalten konnte und zudem nicht allzu viel günstiger war aufgrund des teueren Designs und der Mining-Boom trug an der Preisfront sein Übriges dazu bei.
 
Ne gesockelte GPU ist schon cool

Das musste ich jetzt schon etliche Male lesen und soll keine Kritik speziell an dich gerichtet sein, aber: Diese Form des Engineering bzw. des Bring-Up ist völlig gängige Praxis und bedeutet nicht dass es diese GPUs gesockelt geben wird. Je nach Art werden hier kleine, gefederte Goldkontakte an die Unterseite des Chips gepresst (Pogo-Pin) oder es wird mit kleinen Einlagen mit Noppen aus leitfähigem Polymer gearbeitet.
 
OnTopic: Darüber hinaus war Vega 10 keinesfalls schlecht, lediglich die Erwartungshaltung war zu hoch, da man an der technischen Spitze nicht ganz mithalten konnte und zudem nicht allzu viel günstiger war aufgrund des teueren Designs und der Mining-Boom trug an der Preisfront sein Übriges dazu bei.

Also ich war ganz heiß auf Vega und deshalb war due Enttäuschung um so größer, aber selbst wenn ich das nicht gewesen wäre, war Vega leider technisch gesehen teils ein absoluter Flop:
-im Vergleich zu Fiji gleich viele Ausführungseinheiten, aber wesentlich mehr Transistoren.
-einige neue Funktionen, Techniken usw die nur schlecht oder gar nicht funktionierten oder angekündigte Features die gestrichen wurden.
-trotz des enormen Aufwands blieb die Leistung pro Takt fast exakt auf Fury X Niveau
- der direkte Konkurrent laut techn Daten wäre wohl die Ti gewesen- meilenweit weg. Der nächste Gegner der es ja auch nir wegen der Preissenkung war, war wesentlich effizienter...
Usw usf.

Klar wenn man einen Chip günstig genug anbietet, ist er irgendwann ein Preis/Leistungskracher. Avmber Vega blieb hinter den eigenen hochgesteckten Erwartungen zurück-nicht nur der, der Fans. Poor Volta
 
Du meinst bestimmt Fiji ala Fury/X das angebliche Overclocking Monster mit nur 4GB Ram.
Ja habe selber so ein Monster, hungrig nach Strom.:ugly:

Vega ist ist da um einiges besser. :daumen:
Über die Zeit ist Vega etwas gereift, ja. Aber bei Release war man glaub ich bei 40% mehr Takt und eben auch ca nur 40% mehr Performance als Fury. Es gab aber einige wenige Spiele, die die Performance von Vega auf die Straße brachten (ich denke Wolfenstein2 ? ). Da war also Potential vorhanden
 
Da wir ja schon wieder Vermutungen als Fakten diskutieren, hat es bisher eine GPU gegeben die um etwa 7x7cm groß war, oder die etwa Abmessungen eines Threadripper hatte?
Ich schließe mal vorsichtig eine Dual-GPU aus, es sei denn, Raja hat den Schlüssel gegen das bescholtene Mikroruckeln gefunden.

Für den Consumerbereich finde ich zumindest keine Exemplare der Vergangenheit.

Könnte es sein, das man eventuell den VRam da mit hinein integriert hat, man den Heatspreader extra wesentlich vergrößert hat um sehr viel Wärmeübergabefläche zur Verfügung zu stellen, oder wird die GPU ein wahres Monstrum?
 
Zurück