Intel Xe: Raja Koduri zeigt Fotos aus dem Labor inklusive Arctic Sound

Da wir ja schon wieder Vermutungen als Fakten diskutieren, hat es bisher eine GPU gegeben die um etwa 7x7cm groß war, oder die etwa Abmessungen eines Threadripper hatte?
Ich schließe mal vorsichtig eine Dual-GPU aus, es sei denn, Raja hat den Schlüssel gegen das bescholtene Mikroruckeln gefunden.

Für den Consumerbereich finde ich zumindest keine Exemplare der Vergangenheit.

Könnte es sein, das man eventuell den VRam da mit hinein integriert hat, man den Heatspreader extra wesentlich vergrößert hat um sehr viel Wärmeübergabefläche zur Verfügung zu stellen, oder wird die GPU ein wahres Monstrum?

Naja AFAIR den Schlüssel gegen Microlags gibt es schon, nämlich wenn alle Chips als einer betrachtet werden (auf dem selben EMIB). Und für Datencenter ist das auch irrelevsnt
 
Ich schließe mal vorsichtig eine Dual-GPU aus, es sei denn, Raja hat den Schlüssel gegen das bescholtene Mikroruckeln gefunden.
Du glaubst an eine GPU Die-Fläche von 2000mm² bzw. hälst die für möglich? Oder was denkst du, war der Baap den Koduri zeigte und eine AA Batterie daneben lag?

Das wird ein Dual oder MCM sein. Natürlich für HPC und Datacenter. Ob das im Consumerbereich Sinn macht, ist eher fraglich allein vom Verbrauch her. Ich kann mir nicht vorstellen, dass man im Mainstreamsegment das Intel beschicken will, so ein Teil braucht. Es kann sogar sein, dass vier kleine Die's, bei einer Heatzone von knapp 2700mm² (+/- irgendwas...:)) darunter Platz finden. Geschätzt wurde das ganze Teil, bei um 3700mm².

Selbst die kleinere Ausführung ist für ein Einzel GPU Design viel zu groß, das wären bei der Hälfte ca. 900-1000mm², da werden eher 2x475mm² oder Baap dann 4x475mm² versteckt sein. Ich persönlich kann mir nicht vorstellen, dass die gleich auf Nv's/TSMC 800-900mm² gehen.
 
Zuletzt bearbeitet von einem Moderator:
Boa Raja der Böse, der ganz alleine Vega versaut hat, wie oft muss ich das hier noch lesen? Aber dass er Vega versaut hat weil ihn Intel bezahlt hat, der is neu. Vega war doch nur eine Zwitter-Notlösung mit HPC-Ambitionen um am Spielermarkt präsent zu bleiben, weil man sich keine eigenständige Gaming-Entwicklung leisten konnte. Dafür wurden die Karten im Verhältnis zu den Produktionskosten (und nvidias Marge) fast verschenkt.

Kann schon ahnen was ihr labern werdet wenn Intels Grafik am Markt erscheint.

Erste Option, er wird gut: Raja der Böse hat sicher einen Haufen streng geheime AMD Technik zu Intel mitgenommen, deswegen is sie so gut (obwohl Vega ja eh Mist ist, und die hat er ja entwickelt)
Zweite Option, er wird mies: Raja der Böse wird noch immer von AMD bezahlt und hat die Intel-GPU absichtlich manipuliert und schlecht entwickelt (obwohl er dort mit der Hardware auch nicht wirklich viel zu tun hat)
Dritte Option, er wird schlecht: Raja kann nix

Bei manchen Usern hier würd man sich freuen wenn sie sich einfach so verhalten wie man es von ihrem Nickname erwarten würde. Ich tu das, und bin bei CS wirklich ein leichtes Ziel...

Zurück zum Thema: Schöne Fotos eigentlich, bissl Einblick in die Entwicklungsabteilung find ich immer interessant, auch wenns bisschen gestellt aussieht.
 
Erste Option, er wird gut: Raja der Böse hat sicher einen Haufen streng geheime AMD Technik zu Intel mitgenommen, deswegen is sie so gut (obwohl Vega ja eh Mist ist, und die hat er ja entwickelt).
Da wäre Raja schön blöd und AMD würde sich die Hände reiben. Die anderen beiden Optionen waren schon vor deinem Kommentar *ünn*fiff.:)

Vega ist genau was es war, Zeit gewinnen, GPU's verkaufen, so gut wie es geht. Das das Interposerdesign grundsätzlich den Absatz und damit auch den Umsatz behindert hat, sah man an den Zahlen die Nv zulegte, AMD hatte Lieferprobleme was der Logistik, die man bei so einem Desgin in Anfangsstadien betreiben muss geschuldet war. Alle Prozesse dabei im Auge zu behalten dürfte nicht einfach sein, vor allem zu koordinieren. Sonst hätten die viel mehr an Miner absetzen können, so war Vega für Gamer kaum verfügbar, dazu zu spät. Kam anders und man zog früher die Reißleine, was heute gar nicht so schlecht aussieht. Knapp 1 Jahr musste Nv Wunden lecken.

Im Abverkauf wurde man trotzdem alles los. Jedes Board zählt beim Marktanteil.
 
Da wäre Raja schön blöd und AMD würde sich die Hände reiben. Die anderen beiden Optionen waren schon vor deinem Kommentar *ünn*fiff.:)

Wirst schon sehen, der Mann wird noch öfter hier im Forum seinen Kopf hinhalten müssen für alles Mögliche. Da wett ich was drauf. In diesem Sinne, auf den D*nnpf*ff! :lol:

Achja, Vega ist mist punkt :lol: ja klar, wenigstens hat er seinen Standpunkt klar gemacht. Erinnert mich an die Volksschule, als ein Kumpel immer gesagt hat das das blonde Mädchen aus der dritten Reihe doof is. Jetzt haben sie 2 Kinder. Jetzt sagt er das nicht mehr (wenn sie dabei ist) :ugly:
 
Also wenn Vega wirklich schlecht ist müsste das halbe Forum hier doch Freudentänze veranstalten, da Intel so niemals den Schritt in den GPU-Markt schafft. Koduri ist schuld.
 
Raja war beteiligt an der berühmten 9700 Pro
Ebenso natürlich an Vega
Und auch an Navi 1 und 2.
Wenn manche Idioten sich immer nur das schlechte Aussuchen, zeigt das so einiges über ihre Lebenseinstellung und ihren Charakter.

Wetten dass manch einer hier die Meldung schieben wird? Bin (zum Glück) nicht vom Fach, aber wenn ich drüber nachdenke wieviel Mathematik und Schaltungsentwicklung in so einem Chip steckt wundert es mich dass die überhaupt in ein paar Jahren schon fertig sind und dann noch korrekte Zahlen ausspucken.

Bin aber trotzdem schon gespannt wie sich Xe schlagen wird. Es gibt ja nicht nur Highend in dieser Welt. Und ich würd mir ein Tablett mit besserer Grafik wünschen. AMD wird da noch sehr spärlich verlötet.
 
Nvidia GeForce GTX 1080 Power Consumption Results

Unter Spielen verbrauchte die Vega weniger, um die 220-240 Watt. Ich würde bei Nv nicht immer die TDP als Boardpower oder Total Board Power verkaufen. Genauso verbraucht sie unter Spielen eben das, was Nv als TDP angibt (unter allgemeiner Anwendungslast im Durchschnitt avg). Die Platine darf max 311w@Metro LL 4K und OC dann schon 392w in der Spitze ziehen, dass was ein Netzteil auch jederzeit liefern können sollte. Wie man sieht wird sie in Furmark per Treiber "weggeregelt". Es gibt ja keine gemeinsamen Standards was die Angaben der Leistungsaufnahme angeht (da erfinden die Hersteller für sich die beste Option), wäre schön wenn es so wäre. Dann würden hier weniger streiten.

Das Vega nicht so effizient war wissen ja alle, in Spielen brauchte der trotzdem keine 300w avg, sondern eher maximal.
 
Zuletzt bearbeitet von einem Moderator:
So ein Quatsch, das Afterburner anzeigt bei Watt ist bei Nvidia der Tatsächlicher Verbrauch bei AMD kommt da noch einiges dazu. .

Das Thema hatten wir ja erst.
Während bei AMD die Asic/Chip Power angezeigt wird, liest GPU-Z/HWI bei Nvidia den gesamten Verbrauch aus.
FSU mit einer RTX 2070 Super stock.
FSU.PNG
 
Eine 64 zieht richtig aufgewärmt nicht mehr als 285Watt. Hat Igor in seinem Test genauso beschrieben. Die größten Fehler werden gemacht weil die Karten nicht richtig aufgeheizt werden. Ich hatte eine 56 die sich hier und da mit der 1080 anlegen konnte und deutlich unter 200 Watt verbrauchte in Spielen.

Letztlich zählt nicht der gerade gemessene Höchstwert und auch nicht der Maxwert sondern was eine Graka im Schnitt an Strom verbraucht. Das kann von Spiel zu Spiel anders ausfallen. Ich stelle daher auf average. Wozu soll der Rest wichtig sein um zu ermitteln was sie verbraucht. Kann man sehr gut mit GPUZ simulieren. Höchstwerte sind nur für die Wahl des Netzteiles wichtig. Die GPU TDP allein hilft das sowieso nicht.
 
. Ich stelle daher auf average. Wozu soll der Rest wichtig sein um zu ermitteln was sie verbraucht. Kann man sehr gut mit GPUZ simulieren. Höchstwerte sind nur für die Wahl des Netzteiles wichtig. Die GPU TDP allein hilft das sowieso nicht.
Auf Average zu stellen hat für mich mal überhaupt keinen Sinn. Du hast immer einen Idlewert mit drin, der den Durchschnitt nach unten zieht.
Wenn, dann aktiviere - Log to File - und schau Dir die Log-Datei an.

Kirschen Zählen nicht da hat Nvidia sowieso um einige mehr um nicht zu sagen fast alle. Jetzt kommen die Low level Apis benches von neuen spielen wartet kurz, tut nicht so als wäre das jetzt Relevant bei Release ist es Relevant nicht wenn die Gen schon fast 2 Gens alt ist.
Sogar da gibts Kirschen -wie Zombie Army 4 (Vulkan)- wo eine GTX 1080 eine RX 5700XT nass macht und eine GTX 980Ti eine Vega56.
Zomby.PNG
 
Zuletzt bearbeitet:
Auf Average zu stellen hat für mich mal überhaupt keinen Sinn.
Was für einen idle Wert hast du da drin. Mit GPUZ lässt sich eine Protokolldatei anlegen und die Werte lassen sich mitten in dem Bench komplett zurücksetzen. Ich will den Verbrauch wissen nicht was die Karte in Spitzen zieht. Da nehmen auch die NVidia Karten viel mehr als TDP.

Schreibt am Besten 1000Watt.
 
Nein wenn es 215 watt sind dann sind es maximal 215 ausser du erhöhst das Powerlimit und nicht mal dann garantiert.

Leider nicht ganz. Nvidia GeForce RTX 2070 Super im Test '-' die vernuenftigere RTX 2080 in kleiner und guenstiger? | Seite 11 | igor sLAB
Aber meist wesentlich restriktiver als bei AMD.
Bei meiner 5700 zB ist bei 185W Schluss, genau so wie es vorgesehen ist. AMD Radeon RX 5700 und RX 5700 XT im Test '-' Der Raytracing'-'freie Sargnagel von Vega und bis zu 2.1 GHz Takt unter Wasser | Seite 11 | igor sLAB
 
Bekannterweise sind Regler dafür da sie zu bedienen, in Spielen und Treibern. Man darf eine 2080ti undervolten, aber Vega nicht!

Anhang anzeigen 1094647

Blubbert bitte woanders. Und was an Durchschnitt nicht zu verstehen weiss ich nicht, wenn ich "avg" schreibe. Kommt ja auch drauf an, welches fps Ziel ich habe und wofür sich die Hardsware eignet, wenn ich 4k mit 200fps will, kriege ich jede GPU klein.

In dem Bsp. 8xAA/1440p/Vsync off/ Tesselation normal/höchste Qualy. Die 50w für die VRM und oder HBM rechne ich gerne oben drauf. Nicht mal 'ne dolle CPU die meine bessere Hälfte da hat. AMD halt.

Eine RTX2080 sieht keinen Deut besser aus.
 
Zuletzt bearbeitet von einem Moderator:
Deine Leseschwäche ist wunderbar (ausgeprägt) was zeigt wo du hingehörst, weil sie deiner Meinung nach ja bei 1810 max liegt und du 100MHz einfach mal so abschaffst, und was zieht deine 2080ti bei 2GHz? 300Watt? Du bist vor allem ein richtig schöner "Schnacker vor dem Herrn" und denkst, nur du kannst dir solche Hardware leisten. Wenn du einen schnöden "B" (non A1) Die hast, kannst du gerne darauf einprügeln. AMD ist dann so fair und taktet alle Modelle gleich, und lässt sie auch gleich viel kosten. Das steuern sie über die Voltagetable und VID.

igors Lab schrieb:
Messungen beim Stresstest
Die Intervalle beim Stresstest sind nun plötzlich deutlich länger, denn die Power Estimation kann ihr Potential zusammen mit Boost nicht mehr ausspielen. Dort, wo Pascal beim Gaming durch eine clevere und viel schnellere Vorausschau Vega noch etwas den Schneid abkaufen kann, ist nun bei Dauerlast etwas Sand im Getriebe. Es sind nämlich dann auch um die 9 ms, die so eine Lastspitze von ca. 300 Watt schon einmal anliegen kann. Auch die 345 Watt über 2,2 ms sind da bereits fast auf Vega-Niveau.

Der Kampf von Grafikkarte gegen Netzteil '-' Leistungsaufnahme und Lastspitzen entmystifiziert | igorsLAB | Seite 3 | igor sLAB

Nv regelt einfach viel mehr über den Treiber, wobei AMD die Karte zuerst einmal rennen lässt, wenn es temperaturabhängig geht.
 
Zuletzt bearbeitet von einem Moderator:
Und warum soll ich zwangsweise das spielen, was du willst damit dein Ergebnis stimmt und alles andere ist irrelevant? Cherry Picking hatten wir hier zu Genüge und kennen wir bereits, wer das immer wieder betreibt. Das sind nämlich immer die Gleichen!

Andersherum gibt es "Kirschen", wo eine VegaRVII eine 2080ti nass macht.
 
Zurück