Intel: Mainstream-Spieler brauchen keine diskrete Grafikkarte

Das heißt doch "dedizierte Grafikkarte", und nicht "diskrete Grafikkarte". Wie soll eine Grafikkarte diskrete sein? Ich habe meine Grafikkarte nicht in einem braunen Plastikbeutel bekommen. Und "sauber, und diskret" steht auch nirgends auf der Packung.

Und selbst wenn Intel es schaffen könnte, wo sollen die >4GB VRAM auf der CPU Platz finden?

Hbm ;)
 
Als Zusatz Pixelpumpe bzw Verstärker für die Grafikkarte von Nvidia oder AMD kann ich mir die gut Vorstellen im Rechner. Für mehr aber auch nicht.
 
Die iGPU ist für die Leute interessant, die sie auch nutzen möchten. Entweder mobil (leichter, leiser und sparsamer Laptop der TROTZDEM noch zum zocken taugt) oder neben der dedicated GPU für diverse Aufgaben wie recording, streaming, encoding etc.

In dem Text ging es um die Ausssage das die Intel IGPs für Mainstreamnutzer ausreichend sein, was auch durchaus stimmt. Folglich geht es hier um diejenigen die keine Graka haben,und das ist eine gigantische Menge, vermutlich mehr als es Zocker gibt (Anteil am PC Markt unter 5%). Es geht hier also wirklich um den Fall das Leiute KEINE Graka haben, weder eine GTX 980 Ti, noch eine GTX 960 und auch keine GTX 750 Ti.

150€ sind für viele Leute eine Menge Geld die das sie sich sparen. Für den Trick mit der HD 7900 mußt du wissen das diese Karte ein Geheimtip ist, da muß man schon ein Insider in Sachen Graka sein und Übertakten ist nochmal ein ganz anderes Blatt.

Das heißt doch "dedizierte Grafikkarte", und nicht "diskrete Grafikkarte". Wie soll eine Grafikkarte diskrete sein? Ich habe meine Grafikkarte nicht in einem braunen Plastikbeutel bekommen. Und "sauber, und diskret" steht auch nirgends auf der Packung.

Es handelt sich um einen sogennten "falschen Freund", ein Wort das in einer anderen Sprache ähnlich klingt, aber eine völlig andere Bedeutung hat. Jedes Jahr zu weihnachten verwandeln sich hundertausende Deutsche in Geschenke, einfach weil das Wort become (= zu etwas werden) sich einfach anhört wie bekommen.

Im Fall der diskreten Graka liegt die Ursache beim englischen Wort "discrete", was im Deutschen in dem Zusammenhang "eigenständig", "separat" oder auch "einzeln" bedeutet.

Das hier ist ein falscher Freund der zwar zu etwas Verwirrung führt aber in der Regel keine groben mißverständnisse nachsichzieht. Scließlich plauder eine eigenständig Graka nochmalerweise nichts aus und ist damit wirklich sehr diskret (mal von dem GeForce Speicherproblem abgesehen). Umgekehrt ist eine sehr verschiegene Graka, die nichts verrät, in der Regel eigenständig, bzw. dediziert.

Problematisch wird es wenn man meint das die Intel Graka sehr verschwiegen ist oder wenn man meint das Nvidias Karten auf Grund des Speicherproblems eben nicht verschwiegen sind und alles ausplappern (bzw. beim Diablo 3 Absturz zeigen), in dem Fall könnte derjenige allerdings darauf kommen das man "discreet" gemeint hat (nur echt mit der doppelten Dosis E), das beudeutet dann wiederum wirklich diskret.
 
Ob man dedizierte Grafik braucht oder nicht, hängt stark vom Spiel und vom Budget ab. Im Desktop ist es für Casual-Spieler wirtschaftlich einfach nicht sinnvoll, einen Broadwell i5-5675C für 250 Euro zu kaufen, wenn man stattdessen einen günstigen AMD-Prozessor wie den Athlon X4 860K und eine 180-Euro-Grafikkarte bekommt - oder für vergleichbare Spieleleistung bei halbem Preis einen A10-7870K.

Sehe ich ähnlich.
Ich hätte mich deutlich mehr gefreut wenn Intel es geschafft hätte die CPU Leistung in den letzten 5 Jahren um den Faktor 3 zu steigern...
 
Ja was denn jetzt? Ein Mainstream Gamer will einen PC für unter 500eur, soll sich aber einen i7 mit der größten iGPU kaufen? Ein i3 mit GT740 dürfte mehr Leistung bieten. Selbst gaming-taugliche Notebooks landen gerne mal im vierstelligen Bereich.
Es bleibt, was es ist: Marketing-Geblubber. Diese Leute werden dafr bezahlt, nur heiße Luft zu produzieren.

Scließlich plauder eine eigenständig Graka nochmalerweise nichts aus und ist damit wirklich sehr diskret

Einfach geforce experience installieren, schon steht ein permanenter Upstream zu nVidia. Damit wars das mit "diskret" ;)
 
Die Frage ist, was hat der geraucht? Das brauch ich auch :P
Selten so ein Rotz gehört.
Schließe mich der Meinung von Redakteuer Carsten an ;)
 
Wenn die wirklich konkurenzfähig zu ner dicken Nvidia/AMD sind,
warum dann in der CPU verstecken,
warum keine GPU an sich entwickeln?
 
Ja was denn jetzt? Ein Mainstream Gamer will einen PC für unter 500eur, soll sich aber einen i7 mit der größten iGPU kaufen? Ein i3 mit GT740 dürfte mehr Leistung bieten. Selbst gaming-taugliche Notebooks landen gerne mal im vierstelligen Bereich.
Es bleibt, was es ist: Marketing-Geblubber. Diese Leute werden dafr bezahlt, nur heiße Luft zu produzieren.

Ca. 70% der Leute hier scheinen (wie du) den Sinn nicht wirklich verstanden zu haben. Es wäre vermutlich besser wenn er statt "Mainstream-Spieler brauchen keine diskrete Grafikkarte" (wo das "brauchen keine" wohl im Sinn von "nicht unbedingt erforderlich" zu verstehen ist) die Sache etwas klarer formuliert hätte "Mainstream-Spieler brauchen nicht unbedingt eine diskrete Grafikkarte". Das hätte den Kern besser getroffen.

Und ja: er hat damit recht, seit der HD4000 von Ivy Bridge braucht man nicht mehr unbedingt eine Graka wenn man zocken will, wobei es natürlich um Welten besser ist.

Tatsache ist das die meisten hier ihn mißverstehen (wollen) und daraus "es gibt nichts besseres als Onboardgrafik" machen, was natürlich im doppelten Sinn falsch ist.
 
Es braucht nen 3 Anbieter dann ist der Kunkerenzkampf noch grösser.Ist aber nen Widerspruch in sich was ich grad gesagt hab ,aber intel soll sich lieber auf den CPU Sektor lieber orientieren und da die Leistung noch höher treiben 2003 hat ja so ein Intel Mitarbeiter gesagt das man in 10 jahren zehner ghz bereich wären und wo stecken wir heute noch fest im einer Bereich .

Liegt einfach daran, das man das nicht kühlen kann. Dafür ist einfach der Elelektronenwiderstand im Silizium zu Hoch. Je höher der Takt, desto höher die Verlustleistung. Mit der Spannung, die bei höherem Takt ja auch oft steigt, steigt die Verlustleistung sogar quadratisch.

Das wird sich erst mit Graphen ändern, welches nur 1/100 des Elelektronenwiderstandes von Silizium hat. Da sollte dann bei noch weniger Spannung (und damit Stromverbrauch) durchaus auch 10 GHz möglich sein. Bringt nur erst wirklich etwas, wenn man auch den RAM damit ausstattet. Schon jetzt sind die Wartezeiten auf den RAM aus CPU-Sicht gigantisch.
 
Schließe mich der Meinung von Redakteuer Carsten an ;)
Sehr gut!

Die Frage ist, was hat der geraucht? Das brauch ich auch :P
Selten so ein Rotz gehört.
Der Intel-Mensch betreibt halt Marketing für seine Firma - gehört sicherlich zu seinem Job – und wusste bestimmt im Voraus, dass solche Aussagen, die dank ihrer Schwammigkeit nur schwer als faktisch falsch nachgewiesen werden können, es in die Überschriften des WeltWeitengeWebes schafft. Da würd ich sagen: „mission accomplished“ für Intel anstatt dass der Interviewer da mit einem „challenge accepted“ rangeht.
 
Sehr gut!


Der Intel-Mensch betreibt halt Marketing für seine Firma - gehört sicherlich zu seinem Job – und wusste bestimmt im Voraus, dass solche Aussagen, die dank ihrer Schwammigkeit nur schwer als faktisch falsch nachgewiesen werden können, es in die Überschriften des WeltWeitengeWebes schafft. Da würd ich sagen: „mission accomplished“ für Intel anstatt dass der Interviewer da mit einem „challenge accepted“ rangeht.

Warum? Wenn man sich ansieht, performt die Iris Pro beim I7 5775c ziemlich gut, vor allem wenn man vergleicht wie die Leistung der 4400/4600/Iris ist, sieht man schon ein gewisses Leistungsplus. Und wenn die Leistung weiterhin zunimmt, könnte seine Aussage in ein paar Jahren evtl. doch stimmen. High-End GPUs werden sie natürlich nicht ablösen können. Intel wäre wohl evt. das einzige Unternehmen das es mit AMD/NVIDIA aufnehmen könnte, sofern sie dedizierte GPUS bauen würden.
 
Der Intel-Mensch betreibt halt Marketing für seine Firma - gehört sicherlich zu seinem Job – und wusste bestimmt im Voraus, dass solche Aussagen, die dank ihrer Schwammigkeit nur schwer als faktisch falsch nachgewiesen werden können, es in die Überschriften des WeltWeitengeWebes schafft. Da würd ich sagen: „mission accomplished“ für Intel anstatt dass der Interviewer da mit einem „challenge accepted“ rangeht.

Schon etwas länger mit der Intel IGP gezockt?

Wie gesagt, ab der HD 4000 von Ivy Bridge läuft darauf eigentlich alles, man muß nur die Details richtig runterstellen, jeder der die oder eine schnellere IGP (HD 4400, 4600 und den ganzen Iris (Pro) Krempel hat ist eigentlich ganz gut gerüstet. Klar gibt es Verbesserungsmöglichkeiten, das hat er auch nicht in Abrede gestellt. Von daher würde ich eher sagen: der Intel-Mensch hat recht und der PCGH-Mensch hat Ausnahmsweise einmal unrecht, obwohl ich ihn sehr schätze ;)

Wenn ich meinen Laptop zum laufen bekommen habe werde ich mal versuchen mit meinem i3 4030U, ist mit seinen 15W TDP und HD 4400 definitiv keine High End CPU, Anno 2205 zum laufen zu bekommen. Wenn das klappt wäre die Herausforderung gewonnen. Ich tausche eh den Kühler meines PCs, da kann ich auchmal die GTX 670 rausziehen, also werde ich auch versuchen es auf der HD 4000 meines i7 3770 zum laufen zu bekommen.
 
Wenn intel z.B. einfach die 24-72 Execution Units auf den derzeitigen integrierten HD Graphics / Iris drastisch hochschraubt, dann dürfte es doch für AMD und Nvidia in der Tat zukünftig extrem brenzlig werden, oder sehe ich da etwas falsch? Integrierte Grafik umgeht immerhin, auch wenn es einige nicht leugnbare designbedingte / technische Nachteile gibt, durch die direkte Integration in den SoC und die Anbindung einige der Klippen, die Grafikkarten nicht umschiffen können, oder? Was meint ihr? Nicht so viel Marketing blabla wie man vielleicht im ersten Moment annimmt?
 
Wenn intel z.B. einfach die 24-72 Execution Units auf den derzeitigen integrierten HD Graphics / Iris drastisch hochschraubt, dann dürfte es doch für AMD und Nvidia in der Tat zukünftig extrem brenzlig werden, oder sehe ich da etwas falsch? Integrierte Grafik umgeht immerhin, auch wenn es einige nicht leugnbare designbedingte / technische Nachteile gibt, durch die direkte Integration in den SoC und die Anbindung einige der Klippen, die Grafikkarten nicht umschiffen können, oder? Was meint ihr? Nicht so viel Marketing blabla wie man vielleicht im ersten Moment annimmt?

Das Problem ist technisch hauptsächlich das der RAM relativ langsam ist, klar 16GB, 32GB oder mehr sollten bezahl- und auch kühlbar sein. Schon die alte GrForce 6800 Ultra pumpte damals gigantische 35GB/sec durch den Chip, das erreicht man heute mit Dualchannel und nicht gar so billigem RAM. Deshalb stinken die Dinger Leistungsmäßig einfach ab, wie gesagt: die schnellsten sind so stark wie eine 8800GTX, die vor 9 Jahren auf den Markt kam. Lösun könnte man es indem man der IGP eigenen Speicher spendiert, HBM bietet sich dazu an, allerdings verliert man so den Kostenvorteil und schneller IGPs müßte man wohl mit AiO Waküs kühlen, was den Vorteil mit der einfacheren installation und geringeren Fehleranfälligkeit zunicht macht. Dann gibt es da noch das Problem der geringen Auswahl, mit einer Graka holt man sich einfach die Kombination die man haben will, theoretisch kann man einen Celeron mit einer Titan X kombinieren oder auch einen i7 5960X mit einer uralten GeForce 8400. Bei den IGPs ist man hingegen auf die angebotenen Kombinationsmöglichkeiten angewiesen, was bei Laptops kein großes Problem dastellt, da man sich eh immer (OK, es gibt sehr wenige Ausnahmen mit MXM Modulen) ein Komplettpaket zulegt.

Wie gesagt: die meisten hier sind einfach zu blöd die Aussage richtig zu verstehen. Er hat nicht gesagt Intel IGPs sind das beste und deshalb braucht keiner mehr eine Graka (was die meisten hier irgendwie reininterpretieren), sondern "Mainstream-Spieler brauchen keine diskrete Grafikkarte", wobei er es um die Worte "nicht unbedingt" hätte ergänzen sollen.
 
Das Problem ist technisch hauptsächlich das der RAM relativ langsam ist, klar 16GB, 32GB oder mehr sollten bezahl- und auch kühlbar sein. Schon die alte GrForce 6800 Ultra pumpte damals gigantische 35GB/sec durch den Chip, das erreicht man heute mit Dualchannel und nicht gar so billigem RAM. Deshalb stinken die Dinger Leistungsmäßig einfach ab, wie gesagt: die schnellsten sind so stark wie eine 8800GTX, die vor 9 Jahren auf den Markt kam. Lösun könnte man es indem man der IGP eigenen Speicher spendiert, HBM bietet sich dazu an, allerdings verliert man so den Kostenvorteil und schneller IGPs müßte man wohl mit AiO Waküs kühlen, was den Vorteil mit der einfacheren installation und geringeren Fehleranfälligkeit zunicht macht. Dann gibt es da noch das Problem der geringen Auswahl, mit einer Graka holt man sich einfach die Kombination die man haben will, theoretisch kann man einen Celeron mit einer Titan X kombinieren oder auch einen i7 5960X mit einer uralten GeForce 8400. Bei den IGPs ist man hingegen auf die angebotenen Kombinationsmöglichkeiten angewiesen, was bei Laptops kein großes Problem dastellt, da man sich eh immer (OK, es gibt sehr wenige Ausnahmen mit MXM Modulen) ein Komplettpaket zulegt.

Wie gesagt: die meisten hier sind einfach zu blöd die Aussage richtig zu verstehen. Er hat nicht gesagt Intel IGPs sind das beste und deshalb braucht keiner mehr eine Graka (was die meisten hier irgendwie reininterpretieren), sondern "Mainstream-Spieler brauchen keine diskrete Grafikkarte", wobei er es um die Worte "nicht unbedingt" hätte ergänzen sollen.

Das sehe ich beides genauso wie Du:

1) Der Flaschenhals bei IGP ist der langsame RAM.
2) Ich als Gelegenheitsspieler, der nicht die aktuellsten Spiele zockt, braucht nicht volle Leistung und ich würde mich mit einem i3/i5/AMD mit halbwegs guter integrierter Grafik absolut zufriedengeben! :-)
 
Warum? Wenn man sich ansieht, performt die Iris Pro beim I7 5775c ziemlich gut, vor allem wenn man vergleicht wie die Leistung der 4400/4600/Iris ist, sieht man schon ein gewisses Leistungsplus. Und wenn die Leistung weiterhin zunimmt, könnte seine Aussage in ein paar Jahren evtl. doch stimmen. High-End GPUs werden sie natürlich nicht ablösen können. Intel wäre wohl evt. das einzige Unternehmen das es mit AMD/NVIDIA aufnehmen könnte, sofern sie dedizierte GPUS bauen würden.
In ein paar Jahren... und auch dann braucht die IGP immer mehr Strom wenn sie schneller wird. Und da wird dann frühzeitig der Riegel vorgeschoben. Ich habe schon genug Iris (Pro) gesehen und in Händen gehabt, die unter Last dank 45 Watt TDP die Grätsche gemacht haben (i.S.v. sich aufgrund des Powerbudgets dann heruntertakteten). Selbst der i7-5775C legt noch gut zu, wenn man ihm einfach „mehr Watt“ als seine werkseitigen 65 erlaubt.


Schon etwas länger mit der Intel IGP gezockt?

Wie gesagt, ab der HD 4000 von Ivy Bridge läuft darauf eigentlich alles, man muß nur die Details richtig runterstellen, jeder der die oder eine schnellere IGP (HD 4400, 4600 und den ganzen Iris (Pro) Krempel hat ist eigentlich ganz gut gerüstet. Klar gibt es Verbesserungsmöglichkeiten, das hat er auch nicht in Abrede gestellt. Von daher würde ich eher sagen: der Intel-Mensch hat recht und der PCGH-Mensch hat Ausnahmsweise einmal unrecht, obwohl ich ihn sehr schätze ;)

Wenn ich meinen Laptop zum laufen bekommen habe werde ich mal versuchen mit meinem i3 4030U, ist mit seinen 15W TDP und HD 4400 definitiv keine High End CPU, Anno 2205 zum laufen zu bekommen. Wenn das klappt wäre die Herausforderung gewonnen. Ich tausche eh den Kühler meines PCs, da kann ich auchmal die GTX 670 rausziehen, also werde ich auch versuchen es auf der HD 4000 meines i7 3770 zum laufen zu bekommen.

Ja, habe ich. Auch schon länger. Und genau das meinte ich mit der Schwammigkeit der Aussage: Nur Details runter, Auflösung runter oder mal auf das eine oder andere Spiel ganz verzichten. Und dann natürlich (bei entsprechender Nachfrage) auf die schnellen Iris Pro Dinger ausweichen. Leider haben die ein zweifaches Problem: Die die einigermaßen günstig sind, haben eine TDP, die nichtmal für die Grafik allein ausreicht, geschweigedenn für x86+Grafik. Und die die mehr TDP haben, sind so teuer, dass auch der Casual-Gamer bis auf Nischenfälle mit einer günstigeren CPU und einer entsprechenden Grafikkarte für insgesamt dasselbe Geld besser i.S.v. wirtschaftlich sinnvoller bedient ist. Frei nach dem Motto „Wenn sie sich keine Grafikkarte leisten können, sollen sie doch mit der IGP spielen" [Wenn sie kein Brot haben, sollen sie doch Kuchen essen].
 
Die Dinger sind doch für ultrakleinstPCs interessant (siehe neues Boardformat von Intel) sowie Laptops.
Kein Mensch wird sich die in einen FullTower quetschen - da hat man mit ner günstigen GPU der letzten 2-3 Jahre locker das 5fache an Leistung.
Die iGPU hat ihre Stärken in speziellen Bereichen. Gerade viele Gehäuse aus dem "console killer"-Segment sind dafür ideal, als kleine LAN-Kisten.
 
In ein paar Jahren... und auch dann braucht die IGP immer mehr Strom wenn sie schneller wird. Und da wird dann frühzeitig der Riegel vorgeschoben. Ich habe schon genug Iris (Pro) gesehen und in Händen gehabt, die unter Last dank 45 Watt TDP die Grätsche gemacht haben (i.S.v. sich aufgrund des Powerbudgets dann heruntertakteten). Selbst der i7-5775C legt noch gut zu, wenn man ihm einfach „mehr Watt“ als seine werkseitigen 65 erlaubt.

Das kann ich so leider nicht ganz beurteilen wegen TDP Problemen etc., gehe aber mal davon aus das du Recht hast ;)

Die TDP Probleme könnten sie mit Sicherheit mit einem eigenen PCB lösen, also eine dedizierte Karte zu machen - dann könnten sie vermutlich sehr gut als Konkurrenz sein, vor allem wenn man bedenkt, dass Intel wohl Wert darauf legt, alle DX12 Features zu unterstützen - das schafft ja nicht einmal AMD bzw. Nividia.

Der Markt braucht trotzdem einen weiteren Konkurrenten, sonst hören die Mondpreise von AMD/NVIDIA nie auf.
 
Das kann ich so leider nicht ganz beurteilen wegen TDP Problemen etc., gehe aber mal davon aus das du Recht hast ;)

Die TDP Probleme könnten sie mit Sicherheit mit einem eigenen PCB lösen, also eine dedizierte Karte zu machen - dann könnten sie vermutlich sehr gut als Konkurrenz sein, vor allem wenn man bedenkt, dass Intel wohl Wert darauf legt, alle DX12 Features zu unterstützen - das schafft ja nicht einmal AMD bzw. Nividia.

Der Markt braucht trotzdem einen weiteren Konkurrenten, sonst hören die Mondpreise von AMD/NVIDIA nie auf.

Na, ob das im Vergleich zu den Intel-CPU mit IGP tatsächlich um Mondpreise handelt?
Dann hat Intel wohl jetzt schon "Saturnpreise".
Welche Kategorie der Planetenpreisklasse werden dann wohl von Intel gefertigte GPU, im Sinne von AMD/Nvidia, erreichen?
Galaktische!! :D
 
Zurück