Intel Xe-HPG: Kleine DG2-Grafikkarte mit 2,2 GHz im Benchmark gesichtet

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Xe-HPG: Kleine DG2-Grafikkarte mit 2,2 GHz im Benchmark gesichtet

Ein mutmaßlicher Vertreter aus Intels kommender Generation an Xe-Grafikprozessoren für den Gaming-Bereich wurde mit Takt und Punktzahl im Geekbench gesichtet.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Xe-HPG: Kleine DG2-Grafikkarte mit 2,2 GHz im Benchmark gesichtet
 
Also ehrlich die Leistung einer Konkurrenz GPU aus dem Jahr 2012, ist mehr als nur eine Enttäuschung. Das soll als Gaming-GPU im Bereich High Performance Gaming angeboten werden? Da kann man für Intel nur hoffen das das ein Treiberproblem ist und sie noch die Leistung einer Low Power GPU erreichen. Sonst wird das ein Trauerspiel mit den GPUs für Gamer von Intel!
 
Also ehrlich die Leistung einer Konkurrenz GPU aus dem Jahr 2012, ist mehr als nur eine Enttäuschung. Das soll als Gaming-GPU im Bereich High Performance Gaming angeboten werden? Da kann man für Intel nur hoffen das das ein Treiberproblem ist und sie noch die Leistung einer Low Power GPU erreichen. Sonst wird das ein Trauerspiel mit den GPUs für Gamer von Intel!
Abwarten, es soll erstens die kleinste , zweitens vermutlich ein engineering Sample sein und drittens steht die Frage der Qualität des Treibers im Raum...

Mal schauen was Intel da tatsächlich bringt. Ist ihr erster Wurf, wenn die anderen Gerüchte zutreffen und die "große" bzw. das top end so schnell wie eine 3060/3070 ist, ist es kein schlechter Wurf für das erste mal...
Die Chinesen versuchen schon seit Jahren auf X86 Niveau AMD/Intel etwas entgegen zusetzen und kommen noch nicht mal an 5-7 Jahre alte CPU ran, trotz viel Entwicklungsbudget... Da wäre eine Erstgeburt auf dem Niveau schon eine Hausnummer...
 
Das würde die Version mit 512 Recheneinheiten in die Nähe einer 1070 rücken, wenn man von linearer Skalierung ausgeht. Da würden AMD und NV nur müde drüber lächeln.
 
Intel...


...könnte Trauerspiel Nr. 3 bevorstehen.

Sag einmal laut "Larabeeeeee" - und alle Intel-Ingenieure springen vor Angst hinters Sofa, oder müssen (erneut?) eingewiesen werden. Hehe. ^^ ;-)

Ok, ganz so schlimm kann und wird es wohl nicht werden, schließlich ist Koduri voll am Start.
"Poor Voltaaaaaaa!" Hehe. ;-P

So kann man billig Spaß haben. :-)
Bis die Preise bekannt werden... ;-)

So, Pause vorbei, weiter arbeiten.
Uff, gute Laune wieder weg.
So schnell kann's gehen - auch mit Grafikkartenherstellern. ;-)
 
Das würde die Version mit 512 Recheneinheiten in die Nähe einer 1070 rücken, wenn man von linearer Skalierung ausgeht. Da würden AMD und NV nur müde drüber lächeln.
Ganz sicher nicht, wenn sie auch nur annähernd in die Nähe einer alten Pascal kommen wollte, müsste sie mindestens doppelt soviele Punkte erreichen. Für 1024 Shader wären 25.000 aktuell halbwegs angemssen. Allerdings auch nur bei einer 3 Jahre alten Architektur. Ampere oder RDNA2 sollten dann etwa 50% höhere IPC schaffen. Das hier ist einfach nur ein Trauerspiel, kaum halbe GCN-Leistung...
Da kann man nur hoffen, dass die Treiber noch nicht richtig liefen und der unsinnige Benchmark der Karte einfach nicht liegt, was allerdings auch sehr wahrscheinlich ist. Geekbench ist für die Spieleleistung nicht wirklich aussagekräftig...
 
Das würde die Version mit 512 Recheneinheiten in die Nähe einer 1070 rücken, wenn man von linearer Skalierung ausgeht. Da würden AMD und NV nur müde drüber lächeln.
wenn Intel den Preis Ultra attraktiv gestaltet, werden die beiden wohl nichts mehr zu lachen haben bei den Preisen welche die als uvp aufrufen.

es gibt genug Leute die so denken:
"ich bin ein stink normaler Konsument und möchte so billig als möglich die maximale Leistung haben"

denen ist das scheiss egal von welchem hersteller die Karte kommt, es muss nur funktionieren.

wenn man sich dann mal solche Zahlen ansieht: https://de.statista.com/themen/293/durchschnittseinkommen/#topicHeader__wrapper
dann zeigt das ganz deutlich wie hoch die Absätze sein werden.

abgesehen von den wenigen Enthusiasten hier im forum gibt der Rest nicht so viel Geld für solches aus da er es schlicht und ergreifend nicht hat.

ich bin mir ziemlich sicher das Intel mit ihrer neuen grafikgeneration den Markt aufrütteln wird....nein ich wünsche mir das sogar :-)
 
Intel...


...könnte Trauerspiel Nr. 3 bevorstehen.

Sag einmal laut "Larabeeeeee" - und alle Intel-Ingenieure springen vor Angst hinters Sofa, oder müssen (erneut?) eingewiesen werden. Hehe. ^^ ;-)

Ok, ganz so schlimm kann und wird es wohl nicht werden, schließlich ist Koduri voll am Start.
"Poor Voltaaaaaaa!" Hehe. ;-P

So kann man billig Spaß haben. :-)
Bis die Preise bekannt werden... ;-)

So, Pause vorbei, weiter arbeiten.
Uff, gute Laune wieder weg.
So schnell kann's gehen - auch mit Grafikkartenherstellern. ;-)
da waren aber auch andere Griffe ins Klo, von anderen Firmen auch mal dabei: Parhelia, Volar, NV30 aka 5800 Ultra...
 
Das würde die Version mit 512 Recheneinheiten in die Nähe einer 1070 rücken, wenn man von linearer Skalierung ausgeht. Da würden AMD und NV nur müde drüber lächeln.
Leider ist es immer das Gleiche, egal ob es um AMD, Intel oder nVidia geht. Das hier sind Vorseriengeräte mit Vorserientreibern. Da weiß man bisher nicht in wie weit das auf ein fertiges Produkt übertragbar ist und kann ebenso nur spekulieren, ob Intel hier bspw. wie nVidia und AMD in 2020 verfährt und bspw. seine Treiber "zugenagelt" hat, damit nicht zu viele Leistungswerte frühzeitig ausgelesen oder abgeleitet werden können.

Ergänzend wird aktuell, so auch von MLiD (mit einer recht hohen Zuverlässigkeit seiner Bewertung nach) für das Topmodell (512 EUs) der Bereich der RTX 3070 als Zielbereich angegeben (und nicht etwa eine steinalte GTX 1070).
Intel wird hier also bereits mit seinem ersten Wurf einen Großteil des GPU-Marktes abdecken und der Rest ist eine Frage des Preises und diese Situation werden zweifellos weder AMD noch nVidia belächeln, denn das kostet am Ende schlicht Marktanteile und Umsätze.
 
Zuletzt bearbeitet:
Das würde die Version mit 512 Recheneinheiten in die Nähe einer 1070 rücken, wenn man von linearer Skalierung ausgeht. Da würden AMD und NV nur müde drüber lächeln.

Mit Sicherheit nicht, das wäre ein ernstes Problem für Nvidia. Damit wären sie schneller, als die vermutete RTX 3050 oder RTX 3050Ti. Das ganze ist eher ein Langstreckenlauf. Dass Intel aus dem Stand mit der RTX 3090 den Boden aufwischt, haben wohl nur die größten Optimisten geglaubt.

Fürs erste wäre es schonmal akzeptabel, wenn Intel überhaupt eine Karte produzieren könnte, die sich irgendwie mit den Produkten von Nvidia und AMD messen kann. Die Letzten, die es versucht haben, waren XGI mit dem Volari, die letzten, die es geschafft haben waren STM mit dem Kyro II und das war vor 18 bzw. 20 Jahren.

Interessant wird, was Intel in 4 Jahren auf den Markt bringt und wie sich das ganze, gegen die RTX 5000 macht, speziell die Treiber.
 
Bin auch sehr gespannt, was daraus wird. Ob Intel gegen Nivida eine Chance hat, wird sich zeigen.
Da du das "eine Chance haben" nicht weiter präzisierst kann man die Frage gleichermaßen vollkommen korrekt mit einem 100%igen JA und einem NEIN beantworten, ist also wenig zielführend. ;-)
Der Markt ist komplex und stark ausdifferenziert, hier gibt es keine pauschale Antwort.
Wenn du die Frage in der Art gemeint haben wolltest, ob Intel die nVidia-Top-Consumer-GPU schlagen können wird, kann man die Frage sehr leicht und gar 100%ig korrekt mit einem NEIN beantworten, schlicht weil es aktuell kein äquivalentes Chipdesign von Intel in diesem Marktsegment geben wird. Deren Topchip beschränkt sich auf die gehobene Mittelklasse oder den unteren HighEnd-Bereich (je nachdem, wie man es sehen möchte).

Und darunter hängt es davon ab auf was du schauen möchtest, reine Leistung vielleicht? Aber selbst die existiert nicht im Vakuum, sondern ist immer mit einem Preis verknüpft, sodass Intel hier grundsätzlich eine irgendwie geartete Chance hat, denn das was sie bisher schon mit Xe abgeliefert haben zeigt, dass sie architektonisch auf einem relativ guten Weg sind.

Letzten Endes kannst du dir die Betrachtungsweise auch vereinfachen und mit AMD gleichsetzen, denn das ist das exakt gleiche Szenario. Schaut man nur auf absolute Leistung und Verfügbarkeit, wäre die Antwort wie auch bei AMD gegen nVidia in den letzten Jahren ein klares NEIN. Berücksichtigt man jedoch, dass AMD dennoch Marktanteile hält und mit GPUs Geld verdient hat trotz "mangelnder (pauschaler/biased) Konkurrenzfähigkeit", wäre die Antwort ein JA. ;-)
 
Zuletzt bearbeitet:
Rechnen wir einmal die erreichte Leistung auf einen einzelnen Shader um kommen wir auf die Hälfte von GCN und die sind gut 1/3 schwächer, als aktuelle GPUs von AMD (RDNA2) und erst Recht nVidia. Ganz grob umgerechnet wäre das bei den 4096 Shadern des Topmodells nur eine Leistung zwischen 3060 Ti und 3070. Für den Markt wäre das natürlich noch interessant zu einem angemessenen Preis aber noch kann man auch noch lange nicht von finalen Treibern ausgehen, da sind also theoretisch noch Überraschungen möglich. Auf jeden Fall bieten sie für die Leistung genug Speicher, woran es anderen Marken eher mangelt. Wenn jetzt noch die RT-Leistung passt, könnten sie in ihrem Leistungsbereich die interessantesten Karten werden...
 
da waren aber auch andere Griffe ins Klo, von anderen Firmen auch mal dabei: Parhelia, Volar, NV30 aka 5800 Ultra...
Ja, das ist mir bewusst.
Ich hatte mal eine Hercules mit S3 Virge drauf, noch bevor es Voodoo gab.
Bilinearer Filter schön und gut, aber Tomb Raider 1 lief danach nur noch mit ca. 15 Bildern, mit Softwarerenderer glaube ich satte 30. ^^
Mir ging es halt nur darum auf spaßige Art und Weise darzustellen, dass Intel jetzt nicht unbedingt gute Erfahrung mit Grafikkarten gemacht hat, bisher war einfach alles absolute Grütze.
Das "i" im Namensschema kommt daher wohl auch von "iiiiii" (wegen der Hässlichkeit und der Leistung?^^hehe). Von Anfang an ein No-Go für Gamer, zumindest aus meiner Sicht.
Hat sich bis heute über 20 Jahre so gehalten.
So etwas muss man sich halt erarbeiten, mit Geld lässt sich immer noch nicht alles kaufen - da müsste schon eine Übernahme her, um sofortige Ergebnisse zu gewährleisten.
Damals in den 90ern war alles auch noch viel einfacher herstellbar, da die Techniken noch nicht so weit waren, das hatte noch etwas von Garagenarbeit an sich, es gab viele Köche, viele Änderungen und Verbeserungen, ein neues Produkt war oft wie russisch Roulette für sich mit den anderen Firmen.
Über Nacht konnte man mit einem eigenen neuen Produkt den kompletten Markt auf den Kopf stellen (Voodoo), oder aber sich selbst in den Bankrott reiten.
Es gab massig viele Firmen, die kamen und gingen.
Heute irgendwie schwer nachvollziehbar, weil auch viel professioneller und aufwendiger, vor allem extrem kostenaufwendiger.
Ist ja mit der Spieleprogrammierung noch extremer gelaufen.
Damals waren das maximal eine handvoll Leute, die selber Disketten kopierten und Beipackzettel eintüteten und dann rumfuhren und verteilten/verkauften, jetzt millionen oder milliardenschwere Unternehmen mit hunderten Angestellten weltweit. Crazy.
Rechnen wir einmal die erreichte Leistung auf einen einzelnen Shader um kommen wir auf die Hälfte von GCN und die sind gut 1/3 schwächer, als aktuelle GPUs von AMD (RDNA2) und erst Recht nVidia. Ganz grob umgerechnet wäre das bei den 4096 Shadern des Topmodells nur eine Leistung zwischen 3060 Ti und 3070. Für den Markt wäre das natürlich noch interessant zu einem angemessenen Preis aber noch kann man auch noch lange nicht von finalen Treibern ausgehen, da sind also theoretisch noch Überraschungen möglich. Auf jeden Fall bieten sie für die Leistung genug Speicher, woran es anderen Marken eher mangelt. Wenn jetzt noch die RT-Leistung passt, könnten sie in ihrem Leistungsbereich die interessantesten Karten werden...
Hat die Karte 4 Chiplets? Wird sicher kein Stromverächter und auch nicht unbedingt unverschämt superbillig anzubieten sein, oder?
Wie ich schon sagte, ich zweifle das alles noch ein wenig an.
Es wäre natürlich zu wünschen, weil ich nächstes Jahr auch gerne eine neue Karte hätte.
Und wenn Intel durch günstige Preise zumindest im mittleren Leistungssektor mitspielen kann, bringt das sicher wieder ordentlich Leistung pro Euro, nicht so wie jetzt.
Wobei ich mir gut vorstellen kann, dass die allgemeine Preisgestaltung ein gewisses hohes Niveau erhalten wird, weil die Händler ja nicht dumm sind.
Was die blöden Heinis jetzt für die Karten bis hin zu 3500 Euro ausgegeben haben, auf diese Rekordeinnahmen und schnellen Gewinne wird niemand so gerne wieder gänzlich verzichten wollen.
Neue Villen, Swimming-Pools, Sportautos und heiße Miezen kosten halt auch eine Stange Geld. ^^
 
Zuletzt bearbeitet:
"Ja, das ist mir bewusst." - Tatsächlich? Hier gibt es weitaus mehr Firmen mit weitaus größerem Versagen als Intel. Die zu referenzieren ist natürlich nicht mehr relevant, weil es sie am Markt mittlerweile nicht mehr oder bestenfalls nur noch in einer Nische gibt, bei Intel macht das aber genau so wenig Sinn. Die sind eines der erfolgreichsten Halbleiterunternehmen überhaupt am Markt und das wird man nur, wenn man weitaus mehr richtige als falsche Entscheidungen im Laufe der Jahre getrofen hat, d. h. hier quasi ein Versagen bei GPUs zu implizieren oder gar zu postulieren erscheint schon arg biased.

"... dass Intel jetzt nicht unbedingt gute Erfahrung mit Grafikkarten gemacht hat ..." Warum? AMD hat bspw. auch viel Mist bei GPUs und CPUs im Laufe der Jahre gemacht und diese Fehlentscheidungen sind teilweise viel aktueller als Intels übernommenes Produkt von Real3D Ende der 90er.
Darüber hinaus, wenn vergangene Beobachtungen sich zwangsweise und unabänderbar in der Zukunft fortsetzen würde, gäbe es heute kein AMD mehr. Entsprechend erscheinen derart simplifizierende "Ableitungsversuche" eher einem anderen Zweck zu dienen als hier sinnvolle und belastbare Marktprognosen zu generieren.

"So etwas muss man sich halt erarbeiten, mit Geld lässt sich immer noch nicht alles kaufen - da müsste schon eine Übernahme her, um sofortige Ergebnisse zu gewährleisten."
Geld, das Intel offensichtlich im Überfluss hat, hat hiermit jedoch nur eingeschränkt etwas zu tun, denn dieses "Erarbeiten" erfolgte ganz offensichtlich bei denen, denn Xe ist bereits seit 2017 in der Entwicklung, seitdem man sich entschlossen hatte die Xeon Phi-Linie einzustellen.
Und Intel muss hier nicht über Nacht den Markt aufrollen, es reicht vollkommen aus, wenn man als Einstand konkurrenzfähige Produkte anbieten kann, mit denen man Geld verdient. Da Intel das gesamte Xe-Projekt über viele Segmente und Märkte ausrollt, fällt es ihnen hier weitaus leichter das Projekt profitabel zu fahren, etwas das bspw. einer ressourcenbeschränkten Firma wie AMD lange Probleme bereitete, die selbst im Consumer-Segment nur eingeschränkt konkurrieren konnte, im Workstation-Bereich bis heute keine "echte" Konkurrenz ist und erst jetzt mit CNDA2 überhaupt erstmals im Datacenter Fuß zu fassen beginnt. Im relativen Vergleich dazu kann Intel hier tatsächlich quasi "aus dem Stand heraus" zu einem großen Sprung ansetzen.
 
Zuletzt bearbeitet:
Da kann man nur hoffen, dass die Treiber noch nicht richtig liefen und der unsinnige Benchmark der Karte einfach nicht liegt, was allerdings auch sehr wahrscheinlich ist. Geekbench ist für die Spieleleistung nicht wirklich aussagekräftig...
Bei DG1 liefen ja die Treiber nicht mal richtig. Nicht mal benchen konnte man damit. Deshalb ist die Karte auch schnell in der Versenkung verschwunden. Wiegesagt, die wahre Baustelle ist wohl der Treiber.
 
Also ehrlich die Leistung einer Konkurrenz GPU aus dem Jahr 2012, ist mehr als nur eine Enttäuschung.
Jetzt lass die doch überhaupt erstmal mit irgendwas rauskommen. Ich hab außerhalb des Forums noch nichts über Intel Grafikkarten gehört. Die müssen eh erst 1-2 Generationen antesten und dann kommt vielleicht was, was irgendwo annähernd in der Liga von AMDs und Nvidias Mittelklasse im Gaming performt. So realistisch muss man bleiben. Es war klar, dass die nicht direkt mit einem RX6800XT-Pendant rauskommen. Die stehen noch komplett am Anfang. Kaufen würde ich so eine Grafikkarte innerhalb der nächsten 2-3 Jahre auf keinen Fall. Die Treiber und Spiele sind alle auf AMD und Nvidia optimiert und Intel muss erstmal die Kinderkrankheiten in den Griff bekommen. Das wird noch dauern bis Intel bei den GPUs an Relevanz gewinnt. Die müssen sich erst beweisen.
 
Bei DG1 liefen ja die Treiber nicht mal richtig. Nicht mal benchen konnte man damit. Deshalb ist die Karte auch schnell in der Versenkung verschwunden. Wiegesagt, die wahre Baustelle ist wohl der Treiber.
Immer wieder die gleichen falschen Zitierungen. Das was du meinst war ein reines DevKit für Entwickler. Das war kein fertiges Produkt und das wird es auch nicht nachträglich, wenn man es nur oft genug re-zitiert. ;-)
DG1 in Form der TGL iGPU und auch der dGPU Iris Max läuft wie es sollte. Und bspw. deren Deep Link ist hier ein zusätzlich nettes Goodie und darüber hinaus vereinfacht der unified Treiber es hier Geräteherstellern, da beide GPUs mit exakt dem gleichen Treiber angesteuert werden.
 
Zuletzt bearbeitet:
Das würde die Version mit 512 Recheneinheiten in die Nähe einer 1070 rücken, wenn man von linearer Skalierung ausgeht. Da würden AMD und NV nur müde drüber lächeln.
Die werden nicht mehr lachen, wenn sich die Dinger reihenweise verkaufen, weil der 08/15 Gamer in Valorant, CS:GO etc. auch nicht mehr Leistung braucht.

Wenn der Preis entsprechend ist, werden sich die zig Tausende auf die das oben zutrifft, diese Karten kaufen.
Preis billig + Leistung reicht = Wird gekauft

Gucken wir dann mal wer lacht...
 
Zurück