Intel Ivy Bridge EP: Core i7-4960X mit nur sechs Kernen - das Lineup

Ich wünschte mir beim Rendern von Videos, in denen Videoüberblendungen samt -effekten auftreten ab und zu einen i7-3930k, aber es ist leider ein gut getakteter i7-3820. 50% mehr Kerne sind nicht immer gleich 50% mehr Leistung, naja... Da wären 8 Kerne, 16 Threads ab und zu wünschenswert, wenn schon 4c/8t an die Grenzen kommen.

Das beste wäre ein Quad, oder Six-Core mit einem Super Duper Trallala Leistung/Takt/Verbrauchs Verhältnis.

Wie will man als normaler User, der ab und zu eine runde zockt, oder in Word einen Roman schreibt und Kalkulationen erstellt, und kaum was rendert, 8 ganze Kerne auslasten, mit Prime95 oder Folding@home...
 
Die Xeon E5-14xx sind nur für Single-Socket-2011, die Xeon E5-16xx ebenfalls. Nur die Xeon E5-24xx/26xx eignen sich für Dual-Socket, die E5-46xx sind für Quad-Socket.
hier zB: Intel Xeon E5-1620, 4x 3.60GHz, Sockel-2011, tray (CM8062101038606) Preisvergleich | Geizhals Österreich
Das Xeon Equivalent zum i7-3820 - mit gesperrtem Multi dafür offziellem statt inoffziellem PCIe 3

Sorry, hatte in meinem letzten Post den Bezug zu Octacores vergessen, um die es ja eigentlich ging. Da wären mir nämlich keine Xeon E5-1xxx bekannt. Nur die 2xxx gibts mit acht Kernen.
 
Auch Octacores? Ich wüsste jedenfalls nicht, welche das sein sollten und wo man sie bekommt.
Tatsächlich, Octacores gibts nur mit nem zusätzlichen QPI Port. War mir da eber wie gesagt nicht ganz sicher, ob Sies komplett durchgezogen haben, wundert mich aber jetzt schon etwas, das Sie die Octas nur als Dual-Sockel verkaufen, und als Singel-Sockel die Hexas eben das Maximum darstellen.

Bevor die Konsolen-Entwickler die Optimierung so gut beherrschen, dürften in PCs Grafikkarten werkeln, die genug Speicher und Logikfähigkeiten besitzen, um die gleichen Berechnungen ohne große Abhängigkeit von der CPU durchzuführen.
Sicher?

Es hat ja auch eher weniger mit dem Speicher zu tun, sondern wie die Daten eben benutzt werden. Wenn du z.B. das nutzt um KI zu berechnen, dann kannst du da locker einige Transfers hin und her generieren. Die CPU muss ja noch immer einiges übernehmen, vor allem weil man eben auch nVidia Karten hat, die eben keine Skalarunit haben wie GCN. Je nachdem blockierst du also mit deinem Code eine normale GPU wie hölle, weil es eben viele Branches gibt usw usw.

Wenn du für jeden Frame 166 4kb aufeinanderaufbauende Blöcke zwische iGPU und CPU austauschen willst, dann machst du als Entwickler verdammt noch mal was falsch.
So kleine Blöcke können keine komplexen Inhalte, deren Auslagerung sich lohnen würde, enthalten. Und Synchronisationen, etc. solltest du wohl nicht 100te male pro Frame nötig haben. Selbst auf der PS4 dürfte man sich sowas verkneifen, denn auch nach Entfallen der GPU-CPU-Verbindungsschnittstelle bliebe eine enorme Zahl lächerlich kleiner, wenig Nutzen bringender Schreibzugriffe auf den RAM übrig.
Du musst ja auch nicht 166 mal das machen, es reichen schon 20 oder 30, um einen signifikanten Anteil der Zeit, die dir zur Frameberechnung zur Verfügung steht zu kosten. Und jetzt denk mal an KI und Physik. Da kann schon einiges zusammen kommen. Vor allem, je kleiner die Transfers werden, desto schlimmer wird es! Überleg dir mal was bei Wegfindung passiert, oder sonstigen Entscheidungsprozessen, wo du z.B. 100 oder auch 100 Einheiten hast. Da musst du fast keine Daten hin und her schieben, aber eventuell sehr viel rechnen. Da bricht dir der Overhead sowas von das Genick.

Deswegen sind APUs ja auch ne geile Sache. Du kannst komplett! neue Dinge angehen mit GPGPU, die dir vorher einfach verwährt waren, weil dich der Overhead gekillt hat.

Die Xeon E5-14xx sind nur für Single-Socket-2011, die Xeon E5-16xx ebenfalls. Nur die Xeon E5-24xx/26xx eignen sich für Dual-Socket, die E5-46xx sind für Quad-Socket.
Sorry, hatte in meinem letzten Post den Bezug zu Octacores vergessen, um die es ja eigentlich ging. Da wären mir nämlich keine Xeon E5-1xxx bekannt. Nur die 2xxx gibts mit acht Kernen.
Er hat aber schon Recht. Die Octas gibts wirklich nur als Multi-Sockel Varianten. Leider.
 
Sicher?

Es hat ja auch eher weniger mit dem Speicher zu tun, sondern wie die Daten eben benutzt werden. Wenn du z.B. das nutzt um KI zu berechnen, dann kannst du da locker einige Transfers hin und her generieren. Die CPU muss ja noch immer einiges übernehmen, vor allem weil man eben auch nVidia Karten hat, die eben keine Skalarunit haben wie GCN. Je nachdem blockierst du also mit deinem Code eine normale GPU wie hölle, weil es eben viele Branches gibt usw usw.

Meines Wissens nach gibt es keine Art von Berechnung, die eine heutige Grafikkarte nicht durchführen kann. Es mag welche geben, bei denen sie arg ineffizient sind. Aber wenn wir von Aufgaben reden, die das kleine PS4 Ding erledigen kann, dann dürften die eine 2016/17er GPU nicht vor größere Probleme stellen. Da kann man es sich dann einfach erlauben, 20%, 30% der GPU zu verbraten (und damit vermutlich 100x mehr Leistung zur Verfügung zu haben, als auf der PS4 für gpGPU abgezweigt werden können), weil die restlichen 70% auch in UHD noch mehr fps raushauen werden, als die PS4.

Du musst ja auch nicht 166 mal das machen, es reichen schon 20 oder 30, um einen signifikanten Anteil der Zeit, die dir zur Frameberechnung zur Verfügung steht zu kosten. Und jetzt denk mal an KI und Physik. Da kann schon einiges zusammen kommen. Vor allem, je kleiner die Transfers werden, desto schlimmer wird es! Überleg dir mal was bei Wegfindung passiert, oder sonstigen Entscheidungsprozessen, wo du z.B. 100 oder auch 100 Einheiten hast. Da musst du fast keine Daten hin und her schieben, aber eventuell sehr viel rechnen. Da bricht dir der Overhead sowas von das Genick.

Wegfindung muss ich nicht 60 mal in der Sekunde mit minimaler Latenz berechnen, da reichen 3-4 Updates mit einer ganzen Bewegungssequenz mehr als aus, die dann als Sammelpaket übertragen werden können und Nvidia hat iirc schon vor Jahren vorgeführt, dass eine GPU Wegfindung komplett alleine berechnen kann. Wenn man noch die Einheiten-KI mit auf die GPU packt beschränkt sich der Datenaustausch also auf gelegentliche Befehle des Spielers.

Deswegen sind APUs ja auch ne geile Sache. Du kannst komplett! neue Dinge angehen mit GPGPU, die dir vorher einfach verwährt waren, weil dich der Overhead gekillt hat.

Klar kannst du das. Aber wie so oft, wenn eine Technik etwas komplett neues ermöglicht, dauert es ewig, bis man sich darauf umgestellt hat und bis dahin haben konventionelle Verfahren den Geschwindigkeitsvorteil durch pure Leistung kompensiert und die neuartige Methode ist nur noch effizienter. Das verlängert das Leben der Konsole und wird die Ausrichtung neuer PC-Hardware beeinflussen, aber es wird keine Unspielbarkeit verursachen. Mich würde es nicht einmal wundern, wenn es zur Halbzeit der PS4 Lebensspanne problemlos möglich sein wird, den für gpGPU entbehrlichen Teil der PS4 iGPU komplett auf einer dann aktuellen, typischen Gamer-CPU zu emulieren.
 
zwischen CPU und GPU ljegen welten, da ist nichts mit emulieren.

Du verstehst aber weiterhin das Grundproblem nicht. Der Overhead! Du kannst die Berechnung so schnell ausführen, wie du willst, wenn das Problem feingranular ist, kann es dir leicht passieren, das eben der Overhead schon länger dauert als die Berechnung auf der CPU. Mit iGPUs wird der Nachteil tendenziell eher noch größer.

Genau DAS lernt man gleich am Anfang bei GPGPU. Erstmal überhaupt einschätzen, ob sich der ganze Portierungsaufwand lohnt, und es gibt mehr als genug Situationen, wo es sich eben nicht lohnt wegen dem Overhead...

Deswegen sind die Leute doch so scharf auf einen globalen Adressraum, und noch besser auf einen gemeinsamen Speicher.
 
Du sprichst (imho) vom Koordinations/Übertragungsoverhead. Ich spreche davon, dass Übertragungen überhaupt nicht notwendig sind. Entweder verstehe ich nicht, wovon du redest, oder du nicht, was ich sage, wenn zwischen deiner und meiner Aussage keine Verbindung bestehen soll :ka:

Bezüglich Emulation: Ich weiß nicht, wie die Qualität derartiger Lösungen aussieht, aber es gibt Emulatoren, die behaupten, eine komplette PS3 zu simulieren. D.h. also nicht nur 1-10% einer GPU, sondern die gesamte und zusätzlich noch einen kompletten Cell. Und das alles auf aktueller Mittelklassehardware.
 
Du sprichst (imho) vom Koordinations/Übertragungsoverhead. Ich spreche davon, dass Übertragungen überhaupt nicht notwendig sind. Entweder verstehe ich nicht, wovon du redest, oder du nicht, was ich sage, wenn zwischen deiner und meiner Aussage keine Verbindung bestehen soll :ka:

Bezüglich Emulation: Ich weiß nicht, wie die Qualität derartiger Lösungen aussieht, aber es gibt Emulatoren, die behaupten, eine komplette PS3 zu simulieren. D.h. also nicht nur 1-10% einer GPU, sondern die gesamte und zusätzlich noch einen kompletten Cell. Und das alles auf aktueller Mittelklassehardware.
Ich sage:
Wenn man die iGPU "richtig" (sehr feingranular meine ich) einsetzt, dann kannst du noch so ein schnelles System mit dedizierter GPU haben, das Ding kann so langsam sein, dass du es nicht mehr nutzen kannst.

Du sagst:
Nö, die iGPU ist viel zu schwach, das kann man mit der Power einer dedizierten GPU oder auch der CPU erschlagen.

Dabei spielt der Overhead aus dem kopieren der Daten aber eben eine entscheidende Rolle. Nämlich die, warum meine Aussage zutreffend sein kann, und deine apriori nicht stimmt.
 
Du sagst "ein System mit dedizierter GPU kann nicht..." .
Ich sage "eine GPU kann sehr wohl...". Man beachte, dass da nirgendwo was von System steht.
Deine Aussage mag volllkommen richtig sein, die passt aber schlichtweg nicht auf die Fragestellugn. Man hat keinerlei Übertragungsoverhead, wenn man keinerlei Daten überträgt, sondern die Berechnungen einfach komplett auf der GPU ausführt.
Die mag bei komplexerer Logik zwar gnadenlos ineffizient im Vergleich zur CPU sein, aber im Vergleich zu einer PS4 iGPU wird eine GPU des Jahres 2016/2017 soviel Rohleistung haben, dass sie sich diese Leistungsineffizienz erlauben kann. Und die Latenzen sind, selbst wenn die GPU deutlich mehr Zyklen für diesen Teil der Berechnung braucht, immer noch nicht höher, als bei einer Übertragung an die passendere CPU in der PS4.

Das Gleiche gilt umgekehrt für Aufgabenstellungen, die nur zu kleinem Teil von einer Berechnung auf einer GPU profitieren:
In der PS4 wird man hocheffizient den CPU-orientierten Teil auf der CPU berechnen, dann ratzfatz die paar kritischen Elemente an die iGPU auslagern und da hocheffizient berechnen.
In einem PC des Jahres 2016 wird man hocheffizient den CPU-Teil auf einem halben Kern berechnen, der nebenbei noch drei Krebsmedikamente faltet und in einem Zehntel der Zeit, die die PS4 CPU dafür gebraucht hat. Und für den iGPU-Teil wird man dann halt mal die anderen 9 bis 15 CPU-Kerne anschmeißen müssen. Die sind bei dieser Berechnung zwar höllisch ineffizient im Vergleich zur PS4-iGPU, aber sie haben wiederum so brachiale Rohleistung für Logikberechnungen übrig, dass sie trotzdem rechtzeitig fertig werden.
Man darf dabei ja schließlich nie vergessen, dass die iGPU in der PS4 kein Logik-Coprozessor ist, sondern in aller erster Linie mal der primäre Renderer. Undzwar einer, der schon heute im Vergleich zu PC-GPUs nicht übermäßig stark wirkt, aber in Zukunft die gleiche Grafikqualität in vergleichbaren (oder ggf. sogar 4x größeren) Auflösungen stemmen soll. Da bleibt nicht viel übrig für gpGPU. Wenn die Entwickler 5-10% für solche Aufgaben abzweigen können, dann ist das viel. Und davon werden sie den Löwenanteil noch für Partikeleffekte nutzen, denn die sind nun einmal ein Musterbeispiel für feingranuläre, GPU-o-phile Aufgabenstellungen in modernen Spielen. Und sie lassen sich komplett, ohne Overhead, auf einer dedizierten GPU berechnen.
Für Berechnungen, die tatsächlich so kritisch sein könnten, wie du es beschreibst, steht vielleicht ein Promill der Rechenleistung der PS4 iGPU zu Verfügung. Das sind weniger Flops, als ein 3770K haben dürfte und wir reden von Spielen, die auf einem 7777K laufen werden. Mehr als genug Reserven für schlecht angepassten/anpassbaren Code also ;)
 
Damit die Sachen komplett auf der GPU laufen können, brüchtest du erstmal ne neue API, bzw Erweiterungen der bestehenden, oder willst du, dass das nur auf nVidia Karten mit CUDA läuft? Ok, alternativ könnte man Assembler für GCN schreiben, aber das wars dann auch. Das läuft dann wieder auf der nVidia nicht...

Zudem besteht das Problem von Syncs weiterhin, und auch überhaupt einen weiteren Kernel parallel ausführen zu können ist bei dedizierten GPUs nicht allgemein vorhanden. Bei nVidia kann es nur GK110. Bei AMD theoretisch ab der HD6k Serie. Da läuft es aber wieder nicht identisch ab, und es gibt auch keine gemeinsame API dafür. Zumindest wäre es mir nicht bekannt, wie das auf nVidia Karten einfach so läuft ohne CUDA. Bei AMD hab ich gar keine Ahnung, wie das da wirklich läuft. Bin mit diesem speziellen Punkt nie in Berührung gekommen, weil es eher für iGPUs relevant ist, da solche Probleme meist zu viel Overhead haben, als das sich das auf der dedizierten GPU lohnt.

Die PS4 iGPU kann ja angeblich 4 von 18 CUs abstellen für GPGPU, und damit parallel einen eigenen Kernel abarbeiten. Das ist ziemlich wichtig. Durch obige Probleme siehts ja eben auch so aus, dass du für ein Problem, das ne iGPU voll auslastet, aber ne dedizierte GPU nur zu 25%, diese eben doch zu 100% belegst für die Zeit der Ausführung.

Die Idee von dir ist ganz nett Ruyven, aber dafür brüchte man eben noch einiges an Vorarbeit, damit man die Sachen so einfach komplett auf der GPU laufen lassen kann, und vor allem müsste es eben sowohl für AMD als auch nVidia gehen, und bei nVidia kannst du da warten, bis du Schwarz wirst, bevor das kommt.

Und einfach die drölf CPU Kerne zu benutzen ist auch nicht praktikabel. Die PS4 soll 2TFlop haben bei 18 CUs. 4 CUs kommen da dann also auf rund 444 GFlop/s. Wenn du nen CPU-Kern mit AVX nimmst, dann kannst du 8 Flaots pro Takt rechnen, mit MAD sinds dann 16 Flops/Takt. Du brauchst also 444/16 = ~28GHz an Taktleistung. Das wären bei 4 GHz also 7 Cores, die du nur dafür brauchst. Ok, die CPU Cores werden sicherlich effektiver sein, aber deine 4-5 Cores nur für den iGPU Teil brauchst du dann sicherlich noch immer. :ugly:

Das ziehst du nicht wirklich ernsthaft in Betracht oder?
 
Für die API Probleme , die es am PC gibt muss, wird eine Lösung gefunden werden. Vielleicht mit DX 12.

Sowohl nVidia als auch AMD als auch Microsoft sollten daran interressiert sein; solange es keine wirklich guten Standards gibt wird sich GPGPU im PC Bereich niemals durchsetzen und daran das es sich durchsetzt sollten beide Hersteller interressiert sein.

Und wie gesagt: ein Großteil dessen was auf der PS4 per GPGPU realisiert wird werden Partikeleffekte oder ähnliches sein das man auch mit aktuellen APIs ohne Probleme auf normalen dezidierten GPUs rechnen kann.

Ok, die CPU Cores werden sicherlich effektiver sein, aber deine 4-5 Cores nur für den iGPU Teil brauchst du dann sicherlich noch immer. :ugly:

Hier in diesem Thread geht es um Ivy Bridge CPUs mit bis zu knapp 4GHz (Standard) und bis zu 12 Kernen. Das ist 2013.

Das sollte bereits ausreichen um alles was jemals auf der PS4 möglich sein wird mit roher CPU Power zu erschlagen.

Und die CPU Entwicklung bleibt nicht stehen. Erfahrungsgemäß wird es vielleicht zwei Jahre dauern und wir haben eine vergleichbare Leistung in der Mittelklasse.

Genau deswegen bemängle ich auch das Intel im Desktop/Core Bereich weiterhin nur Sechskerner liefert, die in absehbarer Zukunft (=PS4 Crossplattform) an ihre Grenzen kommen könnten.
 
Zuletzt bearbeitet:
Das denke ich auch. Die Ivys haben schon mächtig Power unter der Haube.

Geht man mal von der Theoretischen Rechenleistung der Sandy Bridge E aus, sieht der sogar alt gegen die Cell CPU aus der PS3. Aber das auch nur Theoretisch ;)

An sich bin ich aber mal gespannt wie es weiter geht und wann wirklich mehr als 4/6 Kerne mal genutzt und benötigt werden bzw. wann der erste ECHTE 8 Kerner raus kommt. Auf der anderen Seite braucht man sowas nicht wirklich und die Leistung der CPU´s ist die letzten Jahre immer langsamer gestiegen.
 
Hier in diesem Thread geht es um Ivy Bridge CPUs mit bis zu knapp 4GHz (Standard) und bis zu 12 Kernen. Das ist 2013.
Und wieviele Kerne hat die ~4GHz CPU? Ach ja richtig, 4 bzw 6 Kerne, und kostet 500-1000k€. Damit hast du aber nur! die GPGPU Sachen abgedeckt, noch 0 den eigentlichen CPU Part.

Und die 12 Kerner werden wohl so bei 2-3k€ losgehen. :banane:

Und schön, dass du den Minimumpart genommen hast mit 4-5. 4-8 wäre da angemessener gewesen. Und vor allem, selbst wenn du 2014/2015 nen 12 Kerner mit 4 GHz kaufen kannst, dann wird der noch immer seine 500€+ kosten, und wer hat dann bitte so ne CPU? und vor allem, wer ist bereit allein für die CPU so viel aus zu gehen, wie für die komplette Konsole, um an der Stelle nur genau so viel Leistung zu haben wie die? Du bist an dem Punkt ja noch nicht unbedingt schneller.

Das wird ne verdammt geringe Anzahl an Leuten machen. Und ob man drum rum kommt, wird sich noch zeigen müssen. Mit den iGPUs kannst du ja erstmals auch realistisch gameplayrelevante Sachen angehen. Das wird sehr spannend die nächsten 1-2 Jahre, wie die Developer die iGPU nutzen.

Das sollte bereits ausreichen um alles was jemals auf der PS4 möglich sein wird mit roher CPU Power zu erschlagen.
Ja knapp, und zu nem Preis, der weit höher liegt als der Komplettpreis der meisten PCs bei den Leuten :ugly:

Und die CPU Entwicklung bleibt nicht stehen. Erfahrungsgemäß wird es vielleicht zwei Jahre dauern und wir haben eine vergleichbare Leistung in der Mittelklasse.
[/quote]
Jaein. Die Entwicklung bei den CPUs ist extrem langsamer geworden. Wenn gibt es mehr Kerne, das hilft hier sogar, aber z.B. ein neuer noch fetterer Befehlssatz als AVX ist nicht wirklich absehbar. Das macht aktuell einfach keinen Sinn, da noch breiter zu werden.

Genau deswegen bemängle ich auch das Intel im Desktop/Core Bereich weiterhin nur Sechskerner liefert, die in absehbarer Zukunft (=PS4 Crossplattform) an ihre Grenzen kommen könnten.
Und? Sie verdienen so hat maximal viel Geld. Was erwartest du von denen? Die haben auch nichts zu verschenken.

Das sind halt die Konsequenzen davon, das man AMD, als Sie gut wahren unzählige Prügel zwischen die Füße geworfen hat, und auch da wo Sie auf Augenhöhe war, auch wegen paar % dann kategorisch gegen AMD sich entschieden hat, obwohl sie auch billiger waren, und eben ein gutes Angebot. Die Glaubenskriege die da ausgetragen wurden, und von wegen AMD taugt nicht usw, was eben in der extremen Form total überzogen war, waren/sind halt mit der AUslöser. (AMD hat auch genug verkackt im Marketing usw. nur so amRande=
 
Und wieviele Kerne hat die ~4GHz CPU? Ach ja richtig, 4 bzw 6 Kerne, und kostet 500-1000k€. Damit hast du aber nur! die GPGPU Sachen abgedeckt, noch 0 den eigentlichen CPU Part.

"Nur" GPGPU im Worst Case, wenn die PS4 komplett ausgereizt ist vielleicht und auf dem PC überhaupt kein GPGPU genutzt wird.

Das wird ne verdammt geringe Anzahl an Leuten machen. Und ob man drum rum kommt, wird sich noch zeigen müssen. Mit den iGPUs kannst du ja erstmals auch realistisch gameplayrelevante Sachen angehen. Das wird sehr spannend die nächsten 1-2 Jahre, wie die Developer die iGPU nutzen.

Niemand wird in näherer Zukunft die IGPUs nutzen. Zumindest nicht in einer Form in der man dezidierte GraKas nicht auch nutzen kann.

Das hätte AMD vielleicht gerne das wird aber nicht kommen. Die IGPUs sind einfach -sofern überhaupt vorhanden- in jeder Hinsicht viel zu uneinheitlich (selbst innerhalb des AMD Portfolios).

Ja knapp, und zu nem Preis, der weit höher liegt als der Komplettpreis der meisten PCs bei den Leuten :ugly:

Die Situation stellt sich ähnlich dar wie zum PS3 Start: auch damals war es möglich einen PC zu bauen, der alles was jemals auf der PS3 möglich werden sollte durch höhere Leistung "erschlagen" konnte- Core 2 Extreme QX6800 und GTX 8800- allerdings zu einem unverhältnismäßig höheren Preis. Bereits Monate später ist diese oder nur eine unwesentlich geringere Leistung aber in der Mittelklasse angekommen (Core2 Quad Q6600, Preisverfall der GeForce 8 Serie und Radeon HD 2000).

Und: für die allermeisten PS4 Crossplattformspiele wird auch ein i7-3930k ausreichen wie ein Core2 Duo für die meisten PS3 Crossplattformspiele ausreicht.

Geht man mal von der Theoretischen Rechenleistung der Sandy Bridge E aus, sieht der sogar alt gegen die Cell CPU aus der PS3. Aber das auch nur Theoretisch ;)

Ein Sandy Bridge-E ist dem Cell soweit ich weiß in jeder denkbaren Hinsicht überlegen. Großteils weit überlegen.

Der Cell ist wohl der meistüberschätzte CPU der Geschichte auch wenn er vom PS4 SoC in dieser Hinsicht harte Konkurrenz zu bekommen scheint...
 
Und einfach die drölf CPU Kerne zu benutzen ist auch nicht praktikabel. Die PS4 soll 2TFlop haben bei 18 CUs. 4 CUs kommen da dann also auf rund 444 GFlop/s. Wenn du nen CPU-Kern mit AVX nimmst, dann kannst du 8 Flaots pro Takt rechnen, mit MAD sinds dann 16 Flops/Takt. Du brauchst also 444/16 = ~28GHz an Taktleistung. Das wären bei 4 GHz also 7 Cores, die du nur dafür brauchst. Ok, die CPU Cores werden sicherlich effektiver sein, aber deine 4-5 Cores nur für den iGPU Teil brauchst du dann sicherlich noch immer. :ugly:

Das ziehst du nicht wirklich ernsthaft in Betracht oder?

Selbst das würde ich ernsthaft in Betracht ziehen. Wie schon angemerkt sind wir hier in einem Thread zu 8-Kern CPUs, also warum soll ich davon nicht 6 für solche Aufgaben nehmen, wenn ich sie habe? Die 8 Jaguar-Kerne werden zusammen vermutlich nicht mehr Leistung haben, als die verbleibenden bei IB, zumal sie ohne eigenes Speicherinterface darstehen.
Möglich wäre es also sehr wohl und wir reden hier nicht von dem, was heutige CPUs können, sondern von dem, was wir in 3-4 Jahren zur Verfügung haben. Da sollte das dann selbst in der Mittelklasse klappen.

Davon abgesehen:
- Ich finde zur PS4 Angaben von um die 1,8 Tflop, inklusive der kompletten CPU. Bleiben 90% deiner Rechnung.
- Die iGPU der PS4 liegt, aus PC Sicht, in der oberen Mittelklasse. Das ist, wenn man bedenkt dass Konsolen mittlerweile die gleichen Auflösungen stemmen müssen, ein Rückschritt im Vergleich zu bisherigen Konsolenvorstellungen, die immer -runtergerechnet auf ihre Auflösung- deutlich mehr zu bieten hatten, als PCs zum Zeitpunkt des Launches. Und die PS4 ist noch nichtmal auf dem Markt, bis dahin könnte noch die nächste Charge Grafikkarten in den Handel kommen. Um eine auch nur halbwegs konkurrenzfähige Optik zu bieten, wird die PS4 auf keine 4 CUs verzichten. Vielleicht im Schnitt auf eine, aber das wars dann auch schon. Bleiben 20% deiner Rechnung.
- Wie dargelegt wird man die iGPU-Möglichkeiten auf der PS4 erstmal nicht für super-duper-tolle super-kritische Aufgaben nutzen. Denn bislang kam man auch ohne die aus. Sondern für klassische gpGPU-Aufgaben, ohne die man schon heute nicht mehr auskommt. Diese lassen sich problemlos auf dedizierte GPUs auslagern, von deiner Rechnung verbleiben vielleicht 2%
- AVX kann afaik 8 Rechnungen pro Takt und Einheit durchführen, die Einheiten von Haswell schaffen das auch iirc auch jeder für sich. Nochmal Faktor Einhalb, bleibt 1% deiner Rechnung übrig.
- Zugegebenermaßen wären effektive 440 Gflop/s für einen aktuellen Hexacore immer noch verdammt eindrucksvoll (laut Wiki schafft ein 980 XE 109) und ich würde sogar eher eine geringere Effektivität bei gpGPU-optimalen Berechnungen erwarten.
Aber selbst wenn ich jetzt nochmal Faktor 10 draufschlage: Es ist einfach nur ein Bruchteil der von dir behaupteten Rechenlast zu erwarten, der auf die CPU zukommt. Der ließe sich selbst nach dieser Rechnung vermutlich auf einem Kern abwickeln. Einem 2013er Kern. Zur Verfügung stehen, wie gesagt, 5-6 2016er Kerne, ehe die von dir befürchtete "Spiel läuft gar nicht" Situation eintreten kann.
 
Ruyven, lies doch bitte.. Ich hab AVX mit 16 Flops/Takt gerechnet... Du mit 8, wie willst du da auf weniger kommen?

Ansonsten: Ihr schnallt das Problem mit de Overhead noch immer nicht.

Um überhaupt ne dedizierte GPU zu verwenden, brauchst du einzelne fucking große Probleme, über die du drüber rödeln musst. Bei der iGPU nicht mehr. Und das werden die Developer auch nutzen, da die Jaguar-Cores eben nicht gerade die Leistungsmonster sind. Ganz abgesehen davon, dass du die Developer erstmal dazu bringen musst, dass Sie ihren iGPU Code erstmal für dedizierte GPUs nutzbar zu machen. Der läuft nämlich 0 darauf. Dir fehlt nämlich das Ganze hin und her kopiere in deinem Code, und der Aufwand ist nicht gerade klein, das zu implementieren.
 
Zurück