Intel Arc für Desktop: Verräterische Infos zu GPU-Takt und Leistungsaufnahme?

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Arc für Desktop: Verräterische Infos zu GPU-Takt und Leistungsaufnahme?

Aufmerksame Zuschauer haben in einem Video zur Arc-Control-Software voraussichtlich die technischen Daten zu einer Desktop-Grafikkarte entdeckt. War das von Intel Absicht oder ein Fehler?

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Intel Arc für Desktop: Verräterische Infos zu GPU-Takt und Leistungsaufnahme?
 
Sehr spannend, die neue Intel-Topkarte. Schade, daß sie erst im Sommer kommt. So kommt NVidia wahrscheinlich drum herum, eine 3070ti mit 16GB veröffentlichen "zu müssen". Naja, sie werden das aber dann mit der neuen Generation ein halbes Jahr später nicht mehr vermeiden können.
:devil:.
 
Freu mich auf meine A780 :)

Kann man auf RDNA2 Karten eig die GDDR6 Temp. auslesen?


Sehr spannend, die neue Intel-Topkarte. Schade, daß sie erst im Sommer kommt. So kommt NVidia wahrscheinlich drum herum, eine 3070ti mit 16GB veröffentlichen "zu müssen". Naja, sie werden das aber dann mit der neuen Generation ein halbes Jahr später nicht mehr vermeiden können.
:devil:.
RTX 4070 kriegt wohl nur 12GB :(
 
Hier ist noch nicht einmal klar, ob das überhaupt das Topmodell darstellen soll. Zu berücksichtigen ist, dass man spekuliert, was die abgebildete "GPU Power" ist. Wäre das nur GPU + Speicher würde das in etwa auf eine 220 W-Karte hinweisen. In der Gerüchteküche wurden Intels Topmodelle eher mit ein paar Watt mehr vermutet.
Es könnte aber auch sein, dass das ausnahmslos die GPU wäre, nur dann wäre die Anzeige dieses Wertes für den User in dem Tool noch unsinniger, da ein noch größerer Teil des tatsächlichen Gesamtverbrauchs (und der Abwärme) unter den Tisch fällt.

Zudem, aus rein marketintechnischer sicht, würde ich, wenn das ein gezielter Teaser ist, wovon man ausgehen kann, zwar etwas teasern, das zwar schon mal einen Ausblick darauf gibt, was in etwa möglich ist, jedoch würde ich nicht gleich sämtliches Pulver verschießen, sodass ich für das Launch-Event nichts mehr (erwähnenswertes) vorzuweisen hätte.
Beispielsweise würde ich davon ausgehen, dass deren selektierte Special Edition sich durchaus von den regulär verkauften Karten abzusetzen weiß (und dementsprechend auch natürlicherweise mehr verbrauchen wird).
 
Zuletzt bearbeitet:
RTX 4070 kriegt wohl nur 12GB :(
Echt? Wurde das schon geleakt? Wäre schade.
Ich persönlich spekuliere aber auf eine 4080, je nach Verbrauch und Preis, oder das RDNA-Gegenstück. Bei Intel warte ich noch mal mindestens eine weitere Generation ab, wie sich das entwickelt. Außer der Leistung auch die Verbreitung von XeSS.
 
Jungs, schlechte Nachrichten.
Wie vermutet performt Intel Arc schlecht (kleiner Wortwitz integriert^^).


Aber was hätte man auch großartig erwarten sollen?
Im Vergleich zu den Chinesen ist das sogar ziemlich gut, die geistern bei ner 1070 Leistung herum.
Letzteren muss man aber zugestehen, dass die von der Entwiclung her noch viel weiter hinten gestartet sind als Intel, die ja schon auf 30 Jahre "Erfahrung" zurückblicken können (sollten).
Jedenfalsl wird es wohl dennoch im Vergleich zum indiskutabel schlechten DG1 ein viel besserer Wurf.
Da kann man also nur Bestes für Version 3 hoffen.
 
Jungs, schlechte Nachrichten.
Wie vermutet performt Intel Arc schlecht (kleiner Wortwitz integriert^^).


Aber was hätte man auch großartig erwarten sollen?
Im Vergleich zu den Chinesen ist das sogar ziemlich gut, die geistern bei ner 1070 Leistung herum.
Letzteren muss man aber zugestehen, dass die von der Entwiclung her noch viel weiter hinten gestartet sind als Intel, die ja schon auf 30 Jahre "Erfahrung" zurückblicken können (sollten).
Jedenfalsl wird es wohl dennoch im Vergleich zum indiskutabel schlechten DG1 ein viel besserer Wurf.
Da kann man also nur Bestes für Version 3 hoffen.
Warte lieber auf echte Benchmarks.

Bei der Slide gibts nichtmal Fußnoten ... niemand weiß was genau und wie da getestet wurde.

Und beim Intel Chip gehen viele Transistoren für Sachen drauf die Navi24 nicht hat.

96 Bit Bus, 8x PCIe, XMX, AV1 Decode/Encode, H264/H265 Encode.

Echt? Wurde das schon geleakt? Wäre schade.
Ich persönlich spekuliere aber auf eine 4080, je nach Verbrauch und Preis, oder das RDNA-Gegenstück. Bei Intel warte ich noch mal mindestens eine weitere Generation ab, wie sich das entwickelt. Außer der Leistung auch die Verbreitung von XeSS.
Hat kopite kürzlich geschrieben und AD104 hat ja nur nen 192Bit BUS.

4080 mit 20GB wird sicher super :)
 
Zuletzt bearbeitet:
Also wenn Speicher und GPU 120 BIS 150 Watt benötigt, wie kommt Ihr dann auf weit über 200 Watt Geaamt Verbrauch?
So schlecht ist der Wirkunsgrad der Spannungswandler auch wieder nicht
 
Hauptsache Intel bekommt erstmal einen Fuß in die (GPU)-Tür. Alles andere wird die Zeit und Feintuning bringen (müssen)...

Gruß
 
Warte lieber auf echte Benchmarks.
Grundsätzlich hast du recht, aber dass die mal eben die Überflieger-Architektur auf den Tisch knallen mit ihrer ersten Generation, darf man wohl nicht erwarten.
Darüber hinaus ist das bei ihm oben aber auch weniger ein technisches Thema sondern eher der übermäßig verbissenen Pflege seiner Feindbilder geschuldet. Beispielsweise AMD performte jahrelang schlecht im Vergleich zur Konkurrenz und da las man bei ihm nicht am laufenden Meter deratige Postings.
Zudem bestimmt am Ende das P/L-Verhältnis wie man das Produkt zu bewerten hat, d. h. wohl oder übel ist zusätzlich der Preis abzuwarten, wobei das bei einer mobilen GPU natürlich noch einmal schwieriger wird, da die zumeist einbepreist ist. Bei den Desktop-Karten wird man sich das aber genauer ansehen können.
Den gleichen Mechanismen muss sich ja zurzeit AMD unterwerfen, denn deren Ryzen's werden schießlich nicht aus Nächstenliebe derart günstiger (seit etwa 8 Wochen). ;-)

*) Ergänzend ist das hier aber auch wieder interessant bzgl. des Marketings von AMD, das viele ja gerne überzeichnet als über jeden Zweifel erhaben darstellen. Hier pickt man sich nach besster Cherry-Picking-Manier den Transistor Count heraus und versucht zusätzlich mit dem angegebenen N6 zu suggerieren das ansonsten alles unmittelbar vergleichbar wäre.
Ohne weitere Detailinformationen und Tests kann man das jedoch keinesfalls sagen, da ...
- die Raytracing-Leistung unbekannt ist und im schlimmsten Fall bei Intel höher sein könnte
- AMDs Design ML-Hardware fehlt
- unklar ist, ob die Media-En/Decoder möglicherweise deutlich stärker bei Intel aufgestellt sind.
Beispielsweise bei AMD weiß man, dass AMD bei letzterem bspw. rigoros den Rotstift angesetzt hat, während Intel hier möglicherweise ihre Video-Engines 1:1 in vollem Ausbau auf allen Chips verwendet.
Und das Thema Treiberoptimierungen und -Reife und die damit verbundene Unsicherheit kommt noch als Sahnehäubchen oben drauf.
Intel oder nVidia hätte man für einen derartigen Vergleich zerrissen und wieder einen Marketing-Fail ohne Gleichen erklärt. ;-)

Hat kopite kürzlich geschrieben und AD104 hat ja nur nen 192Bit BUS.

4080 mit 20GB wird sicher super :)
Der Sachverhalt ist hier aktuell unklar.
Derzeit wird als regulärer Chip auch ein AD103 gelistet (bei Ampere als von der Nummerierung ähnlicher GA103, hier jedoch primär ein Mobile-Design), d. h. die RTX 4070 könnte schon auf dem AD103 basieren, der angeblich über 84 SMs im Vollausbau verfügen soll sowie einem 256 Bit-SI, d. h. 16 GiB VRAM.
Vermutlich wird die RTX 4070 (Ti?) sich grob auf 3090-Niveau bewegen und mit 192 Bit käme man da nicht allzu weit, auch wenn der L2$ hier vergrößert wird.

20 GiB für eine RTX 3080 (Ti) erscheinen wahrscheinlich, da man hier (erneut) mit 384 Bit auf dem AD102 zu arbeiten scheint, d. h. man kann nur sinnvoll auf 320 Bit reduzieren und 10 GiB wären spätestens jetzt, mit Intel im gehobenen Mittelfeld mit bereits 16 GiB, ein handfestes Problem. Zumal auch AMD nicht begründen könnte, warum vergleichbare RDNA3-Karten nun plötzlich weniger VRAM bekommen sollten, d. h. mit Lovelace wird es auch bei nVidia absehbar mehr Speicher geben (müssen).
 
Zuletzt bearbeitet:
Also wenn Speicher und GPU 120 BIS 150 Watt benötigt, wie kommt Ihr dann auf weit über 200 Watt Geaamt Verbrauch?
So schlecht ist der Wirkunsgrad der Spannungswandler auch wieder nicht

Habe es erst auch nicht glauben wollen aber das Thema Leistungsaufnahme, bei zB. Speicher und die Gesamtverlustleistung der Bauteile ist mehr als man denkt.

Gehe mal vom Screenshot aus, also 172W GPUPower.
Jetzt muss du (für dich) definieren was GPUPower ist, da wir es nicht wissen.
Nehmen wir einfachhalber mal eine Folie von NVIDIA da taucht "ihre" GPUPower auf.
https://www.hardwareluxx.de/images/...-TDP-TGP_DEC4AAFDCE594F85B9C766C1201C999B.jpg

Wenn man jetzt die Werte für den Rest der Karte einsetzt
Lüfter, Speicher, Sonstiges und packst die Verluste aller Bauteile obendrauf, sagen wir mal die Karte ist zu 85% effektiv kommt man schon in die Richtung die weit über 200W ist.

Schön hier von Igor beschrieben.
 
Habe es erst auch nicht glauben wollen aber das Thema Leistungsaufnahme, bei zB. Speicher und die Gesamtverlustleistung der Bauteile ist mehr als man denkt.

Gehe mal vom Screenshot aus, also 172W GPUPower.
Jetzt muss du (für dich) definieren was GPUPower ist, da wir es nicht wissen.
Nehmen wir einfachhalber mal eine Folie von NVIDIA da taucht "ihre" GPUPower auf.
https://www.hardwareluxx.de/images/...-TDP-TGP_DEC4AAFDCE594F85B9C766C1201C999B.jpg

Wenn man jetzt die Werte für den Rest der Karte einsetzt
Lüfter, Speicher, Sonstiges und packst die Verluste aller Bauteile obendrauf, sagen wir mal die Karte ist zu 85% effektiv kommt man schon in die Richtung die weit über 200W ist.

Schön hier von Igor beschrieben.
Pcgh Hardware sagt aber gpu u Speicher... Also der Rest weit über 50 watt
Plus Speicher + Verluste über die Wander + Verluste der Platine = 250W
Pcgh Hardware sagt aber gpu u Speicher also nur der Rest..
Bei meiner6600xt braucht die Gpu max 130 Watt, die Karte gesamt maximal 160
Also braucht Speicher und Rest nur 30 Watt
Nach pcgh bräucht ja nur der Rest ohne Speicher weit über 50 watt
 
Pcgh Hardware sagt aber gpu u Speicher... Also der Rest weit über 50 watt

Pcgh Hardware sagt aber gpu u Speicher also nur der Rest..
Bei meiner6600xt braucht die Gpu max 130 Watt, die Karte gesamt maximal 160
Also braucht Speicher und Rest nur 30 Watt
Nach pcgh bräucht ja nur der Rest ohne Speicher weit über 50 watt
AMD gibt aber GPU + Speicher an.

Zu deinen 130W kommen da nur Wandler- und Platinenverluste + Verbrauch der Lüfter hinzu


Und die 120W bis 150W für Arc bezieht sich nur auf die Mobile Version.
 
@perupp: PCGH weiß auch nicht genau was Intel da ausweist und man spekuliert nur. Das kann inkl. Speicher sein, könnte aber nur die reine GPU sein. Man weiß es derzeit halt nicht.

Als konkretes Beispiel gemäß Igors obiger Detailanalyse: Eine RTX 2080 FE und RX 5700X, die real gemessen 225 W verheitz, wird gemäß Bauteilen durch diverse Verluste, den Speicher, Lüfter, etc. effektiv 155 - 160 W rein über den GPU-Chip in Wärme umwandeln. Damit sollte das abgeleitet resultierende "über 200 W" erklärt sein. ;-)

Die von dir vermeintlich beobachteten "grob 50 W Differenz" sind nicht so abwegig. Die Wandlerverluste inkl. Board dürften in der Größenordnung bereits bei um die 40 W liegen und die Lüfter mit grob 8 W laufen nicht über die Wandler und kommen noch hinzu.
Das sieht bei den HighEnd-Karten übrigens noch deutlich "schlimmer" aus. Beispielsweise die RTX 2080 Ti FE kann man mit bis zu 279 W TBP vermessen. Rechnet man das ordnungsgemäß zurück kommt man zu einem realen GPU-Verbrauch (nur der GPU-Chip) von bestenfalls um die 200 W, tendenziell gar leicht weniger, d. h. der Rest sind über das gesamte Design verteilte Verluste.
 
Zuletzt bearbeitet:
Wenn legit ist gar nich mal so schlecht.

Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
 
AMD gibt aber GPU + Speicher an.

Zu deinen 130W kommen da nur Wandler- und Platinenverluste + Verbrauch der Lüfter hinzu


Und die 120W bis 150W für Arc bezieht sich nur auf die Mobile Version.
Also in GPU Info steht gpu Power 130 Watt..
Bist du sicher dass da der Speicher inkludiert ist?
Dann bräuchte ja in Lehrlauf GPU U Speicher nur 3 Watt
 
AMD taktet auf dem Desktop mit Null Mousebewegung gnadenlos runter bei meiner 6800nonXT.
(da wird wohl bei TGP sogar noch W vom DP-Ausgang mit dabei sein, was sich net ganz auf Null reduzieren lässt)
 

Anhänge

  • 6800@Desktop.png
    6800@Desktop.png
    185,8 KB · Aufrufe: 15
Zurück