Multithread
Software-Overclocker(in)
Du unterschätzt wohl was aktuelle Grakas so berechnen können, wenn ich mir OpenCL/Cuda so anschauen, dann gibt es kaum etwas was die SIMD's der GPU's nicht können. EIniges zwar deutlich weniger schnell als eine echte CPU, aber dennoch viel schneller als das rückgeben von daten.Eigentlich nicht! Die ARM-Cores mögen zwar leistungstechnisch schwächer sein, aber als Co-Prozessor sind sie fast schon überdimensioniert. Damit bräuchte die Grafikkarte nicht bei jeder kleinen Berechnung auf die Haupt-CPU zurück zu greifen und den Bus blockieren. DAs würde dann alles innerhalb der Grafikkarte ablaufen, wo die Wege effizienter/schneller sind.
Und wenn du wirklich mitten in der berechnung daten von der CPU verarbeiten musst, hast du beim schreiben des Codes schon ******** gebaut, dafür brauche ich aber keine CPU auf der GPU.
Ich denke das ganze geht eher richtung den APU's, wenn man sich mal anschaut das AMD's Kaveri jpeg bilder doppelt so schnell rendern können wie die grossen Intels, dann soll das shcon was heissen.
Den zusätzlichen Aufwand alles DOPPELT zu kompilieren lassen wir dazu mal aussen vor oder wie? Den genau das passiert wenn du GPU aufgaben auch noch von den ARM Kernen übernehmen lassen willst. Ist zu viel aufwand und vermutlich sogar kontrproduktiv über alles gesehen.Die Art der Aufgabe dürfte nicht so wichtig sein! Von Physikberechnungen für PhysX über Effekte für Gameworks (z.B. HBAO+) könnte der ARM theoretisch alles abdecken. Natürlich nur bis zu einem gewissen Grad. Jedes bißschen zusätzliche Rechenleistung entlastet CPU/GPU und diese hätten somit mehr Leistung zur Verfügung.
Natürlich nicht, und ich finde es auch beeindrukend, also für ARM.In Sachen Parallelisierung ist x86 im Vergleich zu GPUs ineffektiv. Kurz gesagt eine GPU ist x86 in dieser Hinsicht überlegen. Vor ein paar Jahren hätte auch niemand gedacht wie starkt sich allgemein ein ARM-Prozessor entwickeln kann. Selbst Microsoft schafft es mittlerweile eine Windows auf einem ARM-Tablet auszuführen. Das ist dann selbstverständlich kein x86-Code!
Ineffizient sind die x86 gegenüber von GPU's bei Multitthreading übrigens nicht. Nur haben CPU's eben meist nur so 2-12 Kerne um die Aufgaben darauf zu verteilen. Wenn man dies allerdings nutzt, dann können anwendungen ein vielfaches schneller werden, teilweise sogar um mehr als die Anzahl Kerne
zb. immer dann wenn es andere flaschenhälse gibt (HDD, Netzwerk).
Ist leider so. mal schauen wie sich 390 und 880 schlagen werden.Sowohl von Nvidia als AMD kommt bisher nichts wirklich beeindruckendes. Die R9-285 und die GTX870 sind nach bisherigen Daten nicht so wirklich der Bringer. Es fehlen noch eine Menge Informationen, aber so sieht es aktuell aus.
Ok, gut zu wissen, aber selbst mit 650mm^2 ist ein Cip möglich, welcher locker mal 50% schneller als die 290X ist
Theoretisches Limit bei TSMC ist aktuell 650mm², mehr schaffen die Masken derzeit nur sehr schwer. Die größten Chips lieferte bisher Intel mit knapp 700mm² (Knights Ferry).
Bis 600mm² halte ich beim GM200 für möglich.
Sonst sind die ca. 18% vollkommen ok. Salvage des kommenden performance Chips (GM204) knackt den Salvage des aktuellen highend Chips (GK110).
Mit 16 oder 17 Clustern a 128 Einheiten (auch 18 Cluster wären theoretisch möglich) bei 1GHz wird auch die 780Ti fallen.
![Zwinker ;) ;)](/styles/ctec/images/smilies/zwinker4.gif)
Wäre dann aber wohl 'zu teuer'.
IBM hat mit dem Power8 ebenfalls eine 675mm^2 CPU im angebot.
Ne, sowas meine ich nicht. Ich denke da an etwas ganz neues, zb. einen Chip welcher die Geometrieberechnung übernimmt, danach mehrere welche die ganzen Pixel berechnen (speicherweiterleitung oder sowas der geometriedaten) und zu guter letzt nochmals über die GPGPU einheiten das Post Prozessing bevor das Bild ausgegeben wird.Mehr highend Chips auf einer Platine, also so Schrott wie die R9 295X2 oder Titan Z, die beide auf ihre Art und Weise am Limit kratzen? Ist zumindest nichts für mich, solange wir nur bei AFR hängen bleiben und SFR geht u.a. wegen dem ganzen Post Processing moderner Engines nicht.[/SIZE]
Oder so änlich wie intel mit den Multi Socel Systemen, wo viele CPU's mit je mehreren Kernen vom System wie 'eine' angesprochen werden können mithilfe eines schnellen Datentransports zwischen den einzelnen Chips.
Schon heute haben die GPU's ja 12 oder so Cluster welche einzeln angesprochen werden, wieso also nicht 2 Chips mit 10 Clustern zusammenhängen?
Ist jetzt nur eine dumme idee, die leute bei den Chipherstellern sollten sicher noch ausgereiftere haben.