Intel Sandy Bridge: Grafikeinheit in Aktion

Jep, das soll sie oder was erwartest du denn von einer Grafikeinheit, die in einem Prozessor ist?
Wer kauft denn solche Systeme, womit verdienen Dell und Co. ihr Geld, mit High End Gaming Systemen etwa?
 
sonderlich viel natürlich nicht!

Aber wenn sie ein Kaufargument sein soll, dass einen Beträchtlichen Aufpreis wert ist, dann wenigstens, dass sie besser ist als die von der günstigeren Konkurrenz!
 
Wie schon gesagt, die Grafikeinheit in Sandy soll nur ein Bild liefern, mehr nicht und das kann sie, wenn du dann die schnelleren CPUs hast (und ich denke mal, dass Sandy schneller ist als Llano), dann hast du dein Kaufargument.
Auch wenn die meisten die CPU Leistung wohl nie ausnutzen werden.
Interessant wird das nur, wenn man mehrere Monitore anschließen will (was ja heute in Firmen nicht mehr unüblich ist).
 
Ich verteh den Sinn leider nicht. Ich will keine OnBoard Karte mit der ich kein einziges Spiel spielen kann....
Jedes dieser Games ruckelt!
Macht lieber eine CPU die CPU ist und nix anderes.

der Punkt ist das 99% (oder sogar mehr) der Rechner nicht zum Spielen benutzt werden und die Onboard GPU ausreicht - und genau danach richten sich intel und auch AMD, die restlichen 1% müssen halt damit leben das die CPU eine GPU hat.

mfg
 
Eben, die wenigen, die die Grafikeinheit nicht nutzen, bezahlen eben für etwas, das sie nicht brauchen, ist ja nicht das erste Mal, dass das vorkommt.
 
Jep, sie haben alle Sideport, auch mein jetziges Brett und Sideport heißt ja nur, dass die Grafikeinheit RAM hat, aber dieser ist erstens trotzdem langsam und zweiten wenig vorkommend.
Die 128MB sind schneller voll als du denkst und bei den Onboardteilen zapfen sie immer auch noch RAM vom Arbeitsspeicher ab, der muss dann hin-und hergeschaufelt werden, was die Sache nicht gerade beschleunigt.

Auflösung und Texturen musst du natürlich soweit runterschrauben, dass alles in den VRAM passt, sonst ist der Einbrauch enorm. Das sollte aber auch bei neuen Titeln noch möglich sein.
 
... Das sollte aber auch bei neuen Titeln noch möglich sein.

Und das ist es eben nicht, selbst Call of Duty stopft schon den Videoram voll, selbst mit geringer Auflösung kommen da schnell 200MB zusammen und gerade das behindert die Onboardgrafik enorm.
Du kannst zwar spielen, keine Frage, möglich ist das, aber die ständigen Nachlader, Ruckler, was auch immer, stören den Spielfluss gewaltig, das macht dann einfach keinen Spaß, vorallem dann auch nicht, wenn der neueste Shooter dann auch noch durch minimale Details mies aussieht.
Da kannst du dann eher ältere Games spielen.
Eine Runde Unreal Tournament oder Doom 3 ist da spaßiger und Far Cry läuft in der Regel auch problemlos und ich spiele dann eher einen älteren Shooter mit guten Details als eine neuen in Minimum.
 
Bei einigen Leuten hier merkt man, dass sie nicht besonders weit denken.
Selbstverständlich ist es für den Gamer schlecht, der ein paar Euro Entwicklungskosten abträgt ohne einen direkten Nutzen zu haben. Das GPCPU Konzept ist jedoch die Zukunft! Die Leistungen werden massiv ansteigen und dann ist für jeden was dabei, für Office und Gaming (bis dahin dauert es noch lange). Würde einer der beiden Hersteller nicht mitmachen, würde dieser wohl das Risiko eingehen (und ich übertreibe nicht), pleite zu gehen (insbesondere jedoch AMD, wenn sie ihre restlichen Marktanteile verlieren würden aufgrund strategischer Falschentscheidungen. Für Intel wäre es ein harter Schlag)

So ein System kann man nicht von einer Generation auf die neue von 0 auf 100 entwickeln.
Gerade eben hat ein strategisches Spiel zwischen Intel und AMD begonnen! In 10 Jahren wird sicher beim CPU Kauf eine wichtige Frage sein, wer die beste Grafiklösung bietet, heute natürlich noch nicht. Deshalb lässt Intel offenbar AMD noch den Vorsprung mit Fusion (wenn alles so kommt wie es sich andeutet). Denn NOCH bringt eine schnelle CPU-Grafik den Herstellern nichts, da bereits schwache Leistungen den Officesektor bedienen.
 
quantenslipstream schrieb:
Wie schon gesagt, die Grafikeinheit in Sandy soll nur ein Bild liefern, mehr nicht [...]
Wenn sie nur ein Bild liefern soll, warum hat Intel dann die Architektur aufgebohrt, die EU-Anzahl erhöht, die FFU erweitert, den Takt angezogen und einen Turbo eingebaut? :D

Ich bin btw immer wieder überrascht, was mein X100e (HD 3200 = ca. HD 4250 Speed) teilweise an Fps anspuckt - im Positiven (Freelancer in 1024x768 mit AA/AF und max. Details flüssig) wie im Negativen (CoD2 ruckelt wie Seuche).
 
Wenn sie nur ein Bild liefern soll, warum hat Intel dann die Architektur aufgebohrt, die EU-Anzahl erhöht, die FFU erweitert, den Takt angezogen und einen Turbo eingebaut? :D

Das weiß ich nicht, ich arbeite nicht bei Intel, aber vielleicht liegt das an der Konkurrenz, weil die das auch machen. :D

Ich bin btw immer wieder überrascht, was mein X100e (HD 3200 = ca. HD 4250 Speed) teilweise an Fps anspuckt - im Positiven (Freelancer in 1024x768 mit AA/AF und max. Details flüssig) wie im Negativen (CoD2 ruckelt wie Seuche).

Freelancer ist auch schon 7 Jahre alt, das läuft super, wie andere, ältere Games auch. Ich hab aufm günstig Notebook schon Elite Force gespielt (rockt immer noch). Läuft klasse. :daumen:
 
L4D2 knapp 2 Jahre alt und tuts in mittleren Einstellungen mit gut min 40 FPS , also von daher ... :)
Dazu sind die Sideport mem nur fuer denn 3d Beschleuniger als Bonbon , klar das die 512 mb vom Hauptspeicher immer noch gebraucht werden und die sollten sicher reichen :)

mfg F-4
 
Welche Stellen das wohl sind ... wenn man von der CPU absieht bleibt da noch wirklich viel ?

mfg F-4
 
Die CPU trägt durch ihre extrem hohe Leistung natürlich einen Teil bei, aber wenn man 890FX und HD 3000 anschaut, hat Intel wie gesagt teilweise einen Hammer entwickelt. Ich bin wirklich sehr positiv überrascht nach all dem GMA-Zeug der letzten Jahre.
 
Die CPU trägt durch ihre extrem hohe Leistung natürlich einen Teil bei, aber wenn man 890FX und HD 3000 anschaut, hat Intel wie gesagt teilweise einen Hammer entwickelt. Ich bin wirklich sehr positiv überrascht nach all dem GMA-Zeug der letzten Jahre.
HD 3000 war wohl eher der 7XX Chipsatz , beim *xx war das eher HD 4250/4290 und der liegt nicht wirklich schlechter in der Leistung als das was man in dem Vid sehen konnte ...
also ich finde es nach wie vor bescheiden , wie du shcon sagtest im groben ganzen konnte man die Performence auch was HD Kontent abspielen angeht schon Jahre lang bei AMD im Chipsatz haben und mir ist das letzten endes scheiss egal ob die GPU im Chipsatz oder der CPU steckt ... wobei mir Chipsatz fast lieber ist ;)

mfg F-4
 
Da ich mir jetzt 3 Stunden News zu Sandybridge reingezogen hab . und ich jetzt total voll bin :kotz:( Input), und ich dann auch über eine Preisliste gestolpert bin , wo der 2600K nur 317$ kosten soll , werde ich jetzt doch warten auf die SB . BZW man bekommt einen , weil die werden sich ja wie geschnitten Brot verkaufen. Aer jetzt zu meiner Frage : Bringt es was ( mehr Performance bzw OC oder überhaupt mehr Leistung ) wenn die Grafa deaktiviert ist?
 
Jaein. Du kannst halt leichter den Turbo für die CPU-Cores ausnutzen, weil die GPU einfach ihre TDP nicht verbraucht und damit die CPU-Cores mehr Spielraum haben. Ansonsten bringts aber rein garnichts.

Es könnte sogar auf Dauer eher zu Problemchen führen, da der Chip extrem einseitig immer aufgeheizt wird. Intel wird sich das sicher sehr genau angeschaut haben, und Sorge dafür getragen haben das da nichts passiert, aber man steckt in so nem Ding halt nie drin. Man hat ja gesehen was bei nVidia war. Chip gebaut, laut Design und Sims funktioniert er 1A und als er dann auf dem Wafer war, war das Verbindungsnetz schrott.

Und sowas sieht man gleich. Bei Spannungsproblemen wegen der asymmetrischen Erhitzung wirds sicher erst in einem Jahr oder sptäer zu Problemen kommenl
 
Zurück