"Xe-HP schlägt RTX 3080 Ti": Intel dämpft Erwartungen für Spieler

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu "Xe-HP schlägt RTX 3080 Ti": Intel dämpft Erwartungen für Spieler

Intel gewährte gestern einen ersten Blick auf das Package einer Xe-HP-GPU. Die ist letztlich jedoch für den Einsatz in Data-Centern vorgesehen. Intels Grafik-Chef Raja Koduri stellte indessen klar, dass man die Gamer nicht vergessen habe. Erst einmal fokussiere man sich in diesem Segment jedoch auf die Masse der Nutzer.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: "Xe-HP schlägt RTX 3080 Ti": Intel dämpft Erwartungen für Spieler
 
...kein RTX 3080 Ti-Killer ist und man sich erstmal auf andere Dinge fokussiert, anstatt Nvidia unmittelbar an der Spitze des Consumer-Portfolios anzugreifen

Süß, ich liebe diesen Marketingdurchfall, man muss nur zwischen den Zeilen lesen.

Eigentlich steht dort: Wir würden gern in derartigen Leistungsregionen wildern, aber bekommen es einfach nicht gebacken.

Das will der geneigte Aktionär aber nicht so gern hören.
 
Das Intel, die eher wenig Expertise in Bezug auf GPUs vorweisen können, mal eben auf Anhieb die GPUs der langjährigen Spezialisten Nvidia oder AMD platt machen ist jetzt nicht sooo wahrscheinlich...
 
Das Intel, die eher wenig Expertise in Bezug auf GPUs vorweisen können, mal eben auf Anhieb die GPUs der langjährigen Spezialisten Nvidia oder AMD platt machen ist jetzt nicht sooo wahrscheinlich...
Naja. Mit 3700 mm^2 Chipfläche eine GPU mit vermutlich weniger als 800mm^2 Chipfläche zu schlagen ist jetzt keine so große Herausforderung für eine semikonkurrenzfähige Firma wie Intel.

Es rechnet sich aber halt hinten und vorne nicht. :ugly:
 
Süß, ich liebe diesen Marketingdurchfall, man muss nur zwischen den Zeilen lesen.

Eigentlich steht dort: Wir würden gern in derartigen Leistungsregionen wildern, aber bekommen es einfach nicht gebacken.

Das will der geneigte Aktionär aber nicht so gern hören.

Ich interpretiere das so: DeepLearning und KI ist ein viel lukrativerer Markt als der Consumer-GPU-Markt, wo die Leute jeden Tag die Foren volljammern, wie böse teuer doch die Oberklasse-Karten sind.
Wir von intel liefern also zuerst dahin, wo wir mehr Gewinn abschöpfen können und wenn dann mal die Produktion ausreichend hochgefahren ist, gucken wir mal weiter, ob es sich lohnt passende Treiber für PC-Spiele zu entwickeln.
NVidia und Ati machen es ja im Prinzip auch nicht anders: Erst die KI- und professionellen Karten für richtig viel Geld beliefern und dann erst den Consumer-GPU-Markt.
 
Bin ja mal gespannt, ob Intel es diesmal hinbekommt. Bei Larrabee hat es ja funktionier, nur etwa 2-3 Jahre zu spät. Dann hat GTX 280 Leistung, mit 300W Verbrauch, auch keinen mehr interessiert, auch wenn das Konzept sehr interessant war.

Für AMD dürfte das zum Problem werden (oder falls Nvidia mal ein Lock hat, auch für die), lange Phasen der Schwäche darf man sich in einem 3er Markt nicht erlauben.

wahrscheinlich wollte er 1050ti Killer schreiben bzw erwähnen.........:D

Es ist sinnvoll, damit anzufangen. Das Ziel ist recht einfach zu erreichen und selbst wenn man mal ein wenige daneben liegt (etwas höher Stromverbrauch) ist es keine totale Pleite.

Eigentlich steht dort: Wir würden gern in derartigen Leistungsregionen wildern, aber bekommen es einfach nicht gebacken.

Von Null (bzw. den IGPs) auf absolute Weltspitze ist auch ein wenig Anspruchsvoll. Von daher ist es, wie gesagt, durchaus intelligent (hihi, unbeabsichtigtes Wortspiel) ersteinmal kleiner Brötchen zu backen. Wenn das dann funktioniert, dann kann man in der nächsten Generation einen Angriff auf die Spitze wagen, wobei das, dank Nvidias zwei Jahreszyklus, auch in einem halben Jahr der Fall sein kann.

Ein GTX 2650 (oder wie auch immer die Karte heißen wird) Killer wäre durchaus beeindruckend.

Das Intel, die eher wenig Expertise in Bezug auf GPUs vorweisen können, mal eben auf Anhieb die GPUs der langjährigen Spezialisten Nvidia oder AMD platt machen ist jetzt nicht sooo wahrscheinlich...

Seit Sandy Bridge haben sie Erfahrungen mit ihren IGPs und die Treiber sind mittlererweile durchaus als akzeptabel bis befriedigend zu bezeichnen. Dagegen waren dir Treiber von AMD vor 20 Jahren der letzte Müll. Durch einiges an Anstrengungen hat es AMD es geschafft, gute Treiber treiber zu produzieren (wobei Nvidia in dem Punkt immernoch einen Zacken besser ist). Von daher kann das, wenn sich Intel ran hält, durchaus etwas werden. An Geld mangelt es Intel jedenfalls nicht.
 
Süß, ich liebe diesen Marketingdurchfall, man muss nur zwischen den Zeilen lesen.


Süß, woher die Expertise? Schulhof? :lol:

GPU´s jenseits einer RTX 2060 sind komplett irrelevant und machen einen Fliegenschiss vom Umsatz aus, außer Prestige bringen die nur Kopfschmerzen.
Intel agiert intelligent und konzentriert sich auf die restlichen 97% des Marktes.

Korrekt heißt es also zwischen den Zeilen:

" Produkt XY ist kein RTX 3080 Ti-Killer, wir wollen uns erstmal auf die Dinge fokussieren mit denen man Geld verdient, anstatt es zu verbrennen. Statt Nvidia unmittelbar an der Spitze des Consumer-Portfolios anzugreifen greifen wir da an wo das Geld liegt, bei der unteren Mittelklasse."

In etwa so wird es den "Aktionären" intern kommuniziert.


mfg :cool:
 
Zuletzt bearbeitet:
"... weiterhin mit Leidenschaft dabei" oder anders gesagt, wir haben keine konkurrenzfähige gamer GPU in der Mache.^^

MfG
 
Das Intel, die eher wenig Expertise in Bezug auf GPUs vorweisen können, mal eben auf Anhieb die GPUs der langjährigen Spezialisten Nvidia oder AMD platt machen ist jetzt nicht sooo wahrscheinlich...
Na ja, immerhin ist Intel Marktführer bei den Grafikchips. Und an "Grafik[chips/chipsätzen]" baut man auch schon seit fast 20 Jahren. Sicher, es handelt sich nicht um dedizierte Karten, aber den größten Teil vom Schinken macht meiner laienhaften Meinung nach die GPU an sich aus, und nicht das "Drumherum" auf der Platine.

Ich erwarte zwar für den Anfang auch keinen "RTX3080TI Super-Killer", aber unterschätzen würde ich Intel deswegen noch nicht.
 
Dies ist alles erst Ende 2021
Bis dahin kommt Big Navi II und Nvidia RTX 4000-er Serie mit weiterem Ableger daher ...
 
Gemessen an der Leistung pro Watt ist Intel auch bei 3D Chips sehr gut vertreten, die müssen hinter Nvidia und AMD nicht anstehen. Nur gibt es halt von Nvidia Karten mit 200W Verbrauch und von Intel Grafikchips mit 10W Verbrauch. Da ist es dann egal ob man auf das Watt gerechnet genauso effizient ist, der Vergleich verliert man und zum Gaming ist das zu wenig, ergo der schlechte Ruf.

Mal eben von allem mehr verbauen bis auch Intel 200W durch den Chip pumpt ist leider nicht die Lösung.

Immer bedenken, dass Intel die Augen auf dem ganzen Produkt hat. AMD macht keinen Flash-Speicher wie Intel. Nvidia macht keine Netzwerkcontroller wie Intel. Ein Intel Produkt kann ganz anders designt werden.

Zum Schluss das ewig leidige Thema Anzahl der Transistoren. CPUs gelten als Superschnell, wenn die 3 Milliarden Transistoren haben. Grafikkarten mit 12 Milliarden Transistoren werden zur Norm. Intel hat schon bei der Core-i Serie locker 30% vom Chip für die eingebaute Grafikkarte verbraten, die keiner wollte und niemand je benutzt hat. Schön, dass man eine hat, aber wenn erst die dicke Nvidia oder AMD Graka im Rechner steckt, dann ist das totes Silikon. Dann hat jeder gemerkt, dass man in dem Spielen meist nur von der Grafikkarte limitiert wird und wer heute einen 4. Generation i7 im PC stecken hat, der versürt jetzt nicht den ganz großen Druck ein Upgrade zu machen, der kauft sich doch lieber eine 5700XT oder 2080.

Aus der Kiste muss Intel rauskommen. Gamer die alle 2 Jahre bereit sind, die Grafikkarte upzugraden, aber ernsthaft nur alle 8 Jahre über ein CPU Upgrade nachdenken müssen und dann auch noch von der Konkurrenz. Da braucht es schon ein Raytracing Gaming Flagschiffprodukt. Wer einen Ryzen 3000 hat, der denkt doch im Moment keine Sekunde drüber nach, ob 12.Generation Intel etwas für ihn sein wird. Der kennt jetzt schon die Antwort, nein.
 
Na ja, immerhin ist Intel Marktführer bei den Grafikchips.

Da deren Non-Xeon CPUs alle mit Grafikeinheiten daher kamen und kommen, egal ob diese nun auch wirklich genutzt werden.
Wir könnten ja gleich auch noch ARM Mali und andere Smartphone Grafikeinheiten mit in die Liste nehmen...

Es gibt drei Arten von Lügen. Lügen, verdammte Lügen und Statistiken.
 
Und mal ganz ehrlich, nicht nur speziell die GPU´s von Intel oder sonstwem, wenn Sie doch Grafikeinheiten herstellen, ist es nur noch eine Frage der Zeit das Sie mit den alt eingesessenen Graka Herstellern auf einem Niveau sind.
Siehe Atari / Sega Mastersystems und XBox kann sich alles ändern.
 
Das Intel, die eher wenig Expertise in Bezug auf GPUs vorweisen können, mal eben auf Anhieb die GPUs der langjährigen Spezialisten Nvidia oder AMD platt machen ist jetzt nicht sooo wahrscheinlich...
Ganz im Gegenteil, sie haben eine sehr hohe Expertise. Sie verkaufen die meisten CPUs mit embedded CPUs (mehr als Nvidia und AMD zusammen) und haben es ja schon 3 mal (erfolglos) probiert, eine Standalone GPU auf den Markt zu werfen. Zudem waren sie die ersten, die mit Raytracing als Grafiklösung experimentierten.
 
Was da alles geredet wird...
könnte auch Laberrabarbar Chip 2.0 alias Poor Volta 2 werden. ^^
Mich würde ja mal interessieren, ob die Sicherheitslücken der Grafikeinheiten aus den Prozessoren mit übernommen werden?
Gibt es die gratis, oder nur wie imemr mit Preisaufschlag? lol ;-P
 
Ganz im Gegenteil, sie haben eine sehr hohe Expertise. Sie verkaufen die meisten CPUs mit embedded CPUs (mehr als Nvidia und AMD zusammen) und haben es ja schon 3 mal (erfolglos) probiert, eine Standalone GPU auf den Markt zu werfen. Zudem waren sie die ersten, die mit Raytracing als Grafiklösung experimentierten.

Du sagst selber das sie es drei Mal erfolglos im GPU Bereich probiert haben. Sie haben Erfahrungen .. aber dann wohl nur Schlechte :)
 
Auch wenn die Highend (Gamer) noch nicht bedienen . Werden sie eine Alternative im Lowend und Mittleklasse Bereich werden.
 
Zurück