Nvidia Maxwell: Angeblich Spezifikationen zur GTX 870, + 18 % zur GTX 770 im 3DMark 11

Eigentlich nicht! Die ARM-Cores mögen zwar leistungstechnisch schwächer sein, aber als Co-Prozessor sind sie fast schon überdimensioniert. Damit bräuchte die Grafikkarte nicht bei jeder kleinen Berechnung auf die Haupt-CPU zurück zu greifen und den Bus blockieren. DAs würde dann alles innerhalb der Grafikkarte ablaufen, wo die Wege effizienter/schneller sind.
Du unterschätzt wohl was aktuelle Grakas so berechnen können, wenn ich mir OpenCL/Cuda so anschauen, dann gibt es kaum etwas was die SIMD's der GPU's nicht können. EIniges zwar deutlich weniger schnell als eine echte CPU, aber dennoch viel schneller als das rückgeben von daten.
Und wenn du wirklich mitten in der berechnung daten von der CPU verarbeiten musst, hast du beim schreiben des Codes schon ******** gebaut, dafür brauche ich aber keine CPU auf der GPU.
Ich denke das ganze geht eher richtung den APU's, wenn man sich mal anschaut das AMD's Kaveri jpeg bilder doppelt so schnell rendern können wie die grossen Intels, dann soll das shcon was heissen.


Die Art der Aufgabe dürfte nicht so wichtig sein! Von Physikberechnungen für PhysX über Effekte für Gameworks (z.B. HBAO+) könnte der ARM theoretisch alles abdecken. Natürlich nur bis zu einem gewissen Grad. Jedes bißschen zusätzliche Rechenleistung entlastet CPU/GPU und diese hätten somit mehr Leistung zur Verfügung.
Den zusätzlichen Aufwand alles DOPPELT zu kompilieren lassen wir dazu mal aussen vor oder wie? Den genau das passiert wenn du GPU aufgaben auch noch von den ARM Kernen übernehmen lassen willst. Ist zu viel aufwand und vermutlich sogar kontrproduktiv über alles gesehen.


In Sachen Parallelisierung ist x86 im Vergleich zu GPUs ineffektiv. Kurz gesagt eine GPU ist x86 in dieser Hinsicht überlegen. Vor ein paar Jahren hätte auch niemand gedacht wie starkt sich allgemein ein ARM-Prozessor entwickeln kann. Selbst Microsoft schafft es mittlerweile eine Windows auf einem ARM-Tablet auszuführen. Das ist dann selbstverständlich kein x86-Code!
Natürlich nicht, und ich finde es auch beeindrukend, also für ARM.
Ineffizient sind die x86 gegenüber von GPU's bei Multitthreading übrigens nicht. Nur haben CPU's eben meist nur so 2-12 Kerne um die Aufgaben darauf zu verteilen. Wenn man dies allerdings nutzt, dann können anwendungen ein vielfaches schneller werden, teilweise sogar um mehr als die Anzahl Kerne
zb. immer dann wenn es andere flaschenhälse gibt (HDD, Netzwerk).


Sowohl von Nvidia als AMD kommt bisher nichts wirklich beeindruckendes. Die R9-285 und die GTX870 sind nach bisherigen Daten nicht so wirklich der Bringer. Es fehlen noch eine Menge Informationen, aber so sieht es aktuell aus.
Ist leider so. mal schauen wie sich 390 und 880 schlagen werden.




Theoretisches Limit bei TSMC ist aktuell 650mm², mehr schaffen die Masken derzeit nur sehr schwer. Die größten Chips lieferte bisher Intel mit knapp 700mm² (Knights Ferry).

Bis 600mm² halte ich beim GM200 für möglich.

Sonst sind die ca. 18% vollkommen ok. Salvage des kommenden performance Chips (GM204) knackt den Salvage des aktuellen highend Chips (GK110).

Mit 16 oder 17 Clustern a 128 Einheiten (auch 18 Cluster wären theoretisch möglich) bei 1GHz wird auch die 780Ti fallen.
Ok, gut zu wissen, aber selbst mit 650mm^2 ist ein Cip möglich, welcher locker mal 50% schneller als die 290X ist;)
Wäre dann aber wohl 'zu teuer'.
IBM hat mit dem Power8 ebenfalls eine 675mm^2 CPU im angebot.

Mehr highend Chips auf einer Platine, also so Schrott wie die R9 295X2 oder Titan Z, die beide auf ihre Art und Weise am Limit kratzen? Ist zumindest nichts für mich, solange wir nur bei AFR hängen bleiben und SFR geht u.a. wegen dem ganzen Post Processing moderner Engines nicht.[/SIZE]
Ne, sowas meine ich nicht. Ich denke da an etwas ganz neues, zb. einen Chip welcher die Geometrieberechnung übernimmt, danach mehrere welche die ganzen Pixel berechnen (speicherweiterleitung oder sowas der geometriedaten) und zu guter letzt nochmals über die GPGPU einheiten das Post Prozessing bevor das Bild ausgegeben wird.
Oder so änlich wie intel mit den Multi Socel Systemen, wo viele CPU's mit je mehreren Kernen vom System wie 'eine' angesprochen werden können mithilfe eines schnellen Datentransports zwischen den einzelnen Chips.
Schon heute haben die GPU's ja 12 oder so Cluster welche einzeln angesprochen werden, wieso also nicht 2 Chips mit 10 Clustern zusammenhängen?

Ist jetzt nur eine dumme idee, die leute bei den Chipherstellern sollten sicher noch ausgereiftere haben.
 
Meiner Meinung nach sollte eine gtx 880 schon ein bisschen schneller sein als eine 780 ti. Oder wenigstens ein sehr großes taktpotential haben, wie eine hd7950 zum beispiel. Dann müsste nur noch der preis stimmen...
 
Was TheGoodBadWeirdmeint nennt sich HSA und ist schon in Form von APUs vorhanden. Das Prinzip bleibt gleicht jedoch ist fraglich ob es bei Spielen wirklich so viel bringt.
 
Du unterschätzt wohl was aktuelle Grakas so berechnen können, wenn ich mir OpenCL/Cuda so anschauen, dann gibt es kaum etwas was die SIMD's der GPU's nicht können. EIniges zwar deutlich weniger schnell als eine echte CPU, aber dennoch viel schneller als das rückgeben von daten.

Sicherlich kann eine GPU gewisse Aufgaben besser lösen als die CPU. Leider kann man es nicht immer über die GPU lösen. Angenommen du hättest eine aufwändig fordernde Spielszene inklusive aktivierten Qualitätsfeatures wie MSAA und/oder Downsampling/4K. Ich bin mir sicher da bekommst du nichts mehr auf die GPU gequetscht, schlicht weil sie am Limit läuft.

Selbiges bei der CPU. Im CPU-Limit geht einfach nichts mehr zusätzlich.


Den zusätzlichen Aufwand alles DOPPELT zu kompilieren lassen wir dazu mal aussen vor oder wie? Den genau das passiert wenn du GPU aufgaben auch noch von den ARM Kernen übernehmen lassen willst. Ist zu viel aufwand und vermutlich sogar kontrproduktiv über alles gesehen. Und wenn du wirklich mitten in der berechnung daten von der CPU verarbeiten musst, hast du beim schreiben des Codes schon ******** gebaut, dafür brauche ich aber keine CPU auf der GPU.

Nicht zwangsweise! Solange der ARM gleichzeitig die Verwaltung für seine Aufgaben übernimmt, sollte das funktionieren. Man hat ja sicherlich mehr als einen Kern auf dem SoC zur Verfügung.

Außerdem bezweifle ich, dass man doppelt kompilieren muss. Wir sollten nicht das Hauptfeature von Maxwell vergessen! Auf den Roadmaps ist immer noch "Unified Memory" angegeben, das CUDA schon seit Version 6 softwareseitig unterstützt. Das heißt die GPU/ARM hat die gleichen Daten zur Verfügung, die sich im CPU-Cache/Arbeitsspeicher befinden ... oder zumindest eine Kopie davon.

Durch dieses Feature und den stark vergrößerten Cache innerhalb von Maxwell, sollten immer genug Daten vorhanden sein, um die Anweisungen durchzuführen. Anschließend würde dann der ARM-SoC die Aufgaben deligieren. Läuft etwas besser in der CPU, wird es weiterhin dort ausgeführt. Hat der ARM etwas gefunden, was er gut kann, übernimmt er das und gibt die Ergebnisse weiter. Sahnestücke für die GPU werden dorthin geleitet und verarbeitet.

Letztendlich läuft alles effizienter ab und spart somit Rechenaufwand. Damit bist du schneller fertig und kannst im Vergleich zu den Vorgängergenerationen mehr Aufgaben übernehmen und bist letztendlich leistungsstärker.


Natürlich nicht, und ich finde es auch beeindrukend, also für ARM.
Ineffizient sind die x86 gegenüber von GPU's bei Multitthreading übrigens nicht. Nur haben CPU's eben meist nur so 2-12 Kerne um die Aufgaben darauf zu verteilen. Wenn man dies allerdings nutzt, dann können anwendungen ein vielfaches schneller werden, teilweise sogar um mehr als die Anzahl Kerne zb. immer dann wenn es andere flaschenhälse gibt (HDD, Netzwerk).

Die Anzahl der Kerne ist für x86 nicht das Hauptproblem, sondern deren Größe und die Anzahl der gleichzeitig ausführbaren Threads. Hier ist eine GPU wegen der unzähligen Kerne im Vorteil. Für kleinere parallelisierte Aufgaben ist das effizienter. Bei größeren Rechenoperationen wäre dann die CPU pro Kern besser geeignet.
 
Zuletzt bearbeitet von einem Moderator:
Ich hoffe nur zwei Sachen.
1. Dass Nvidia seine Ankündigung bewahrheitet und die Preise gesenkt werden, im Gegensatz zu früheren Generationen.
2. Dass die 4GB Variante nicht wieder so unverhältnismäßig teuer sein wird, wie bei der GTX 770

Dann mal sehen was AMD mit der R9 380X im Petto hat und ich entscheide mich für das bessere Angebot.

Meine nächste Grafikkarte sollte entweder mehr Leistung bieten als eben die 280X bzw GTX 770 oder aber diese Karten sollen unter 200€ fallen. Dann könnte ich mich auch noch für diese erwärmen.
Ein guter Sprung ist von meiner 6970 sowieso zu erwarten. Am liebsten aber in Gefilde der R9 290 für 270 Tacken oder weniger. Aber noch kommt mir das wie Wunschdenken vor, wenn ich dieses Jahr noch aufrüsten möchte ^^ . Aber für AC Unity und Far Cry 4 möchte ich gerüstet sein.
 
Diese verkrüppelte Zwischengeneration können sie behalten. Ich warte auf den GM210 oder wie immer der auch heißen mag. Alles unter 25% mehr Leistung zur 780ti ist Verschwendung. Vor allem da man fast jede Ti auf 1200MHz OCen kann.

Wenn man jetzt aufrüsten will (von einer GTX580), dann kann man natürlich zur 870 oder 880 greifen, aber ansonsten sollte man eher nicht aufrüsten und auf einen kleineren Fertigungsprozess warten. Dürfte in spätestens einem Jahr soweit sein.
 
Wird die 800-Serie voll ausgebaut sein oder nur so minimalst? Weil wenn man hier so ließt glaub ich das es leicht besser wäre auf die 900-Serie zu warten oder wie die auch immer heißen möge.
 
Wird die 800-Serie voll ausgebaut sein oder nur so minimalst? Weil wenn man hier so ließt glaub ich das es leicht besser wäre auf die 900-Serie zu warten oder wie die auch immer heißen möge.
Wer Leistung braucht kauft jetzt, wer sie nicht braucht und warten kann später. Ist doch immer so. Deswegen ist solch eine Diskussion defakto fürn *****, es wird schon schnell genug sein um sich nicht zu blamieren gegenüber der Vorgängergeneration. Deswegen halte ich auch die Aussagen von wegen 880 nicht auf 780ti Niveau für blankes rumgeblubber. Ein Rechenleistungstechnisches Sidegrade nur für Energieersparnis wird keine Punkte auf der "ich bin der geilste Herstelle gebt mir euer Geld" Scorecard bringen.
 
Hmm..Also das der Leistungsanstieg nicht hoch ist wusste ich ja von Anfang an, aber ich bin immer noch am überlegen ob sich ein Upgrade lohnen würde von msi 770 zu 880/Ti oder 890 je nach dem
 
Diese verkrüppelte Zwischengeneration können sie behalten. Ich warte auf den GM210 oder wie immer der auch heißen mag. Alles unter 25% mehr Leistung zur 780ti ist Verschwendung. Vor allem da man fast jede Ti auf 1200MHz OCen kann. Wenn man jetzt aufrüsten will (von einer GTX580), dann kann man natürlich zur 870 oder 880 greifen, aber ansonsten sollte man eher nicht aufrüsten und auf einen kleineren Fertigungsprozess warten. Dürfte in spätestens einem Jahr soweit sein.

Für Besitzer einer 780Ti oder ähnliche wird diese Generation unter Umständen nicht so interessant. Ich mache mir selbst gerade Gedanken, welche Karte man sich unbedingt holen sollte.

Interessanterweise wird die GTX870 wahrscheinlich der neue Kassenschlager für Nvida und erkläre auch warum:
-angenommen Nvdia macht ihr versprechen wahr und senkt den Stromverbrauch drastisch. In erster Linie klingt das nicht so toll, weil die Leute primär mehr Leistung wollen als weniger Verbrauch.

Allerdings bedeutet weniger Stromverbrauch auch potentiell
a.) weniger Abwärme
b.) weniger Stromanschlüsse

Ist den meisten Leuten immer noch egal, aber es wird schlichtweg unterschätzt. Bei einer GTX870 mit Leistung auf etwa einer GTX780 wäre das ein enormer Fortschritt. Falls der Stromverbrauch drastisch gesenkt wäre, bräuchte man nur noch einen 6-Pin-Stecker.

Extrem kurze Karten wären damit möglich. Stellen wir uns eine Karte in der Liga der GTX780 vor, die vergleichbar mit einer ASUS GeForce GTX 670 DirectCU Mini wäre.
http://cdn4.wccftech.com/wp-content/uploads/2013/03/GTX-670-DirectCU-Mini-635x531.jpg

Nun, da Maxwell sich anhand der GTX750 Ti höllenmäßig übertakten lässt, könnte man die GTX870 locker auf das Niveau der GTX780 Ti prügeln. Mit so einer kleinen Karte! Wahnsinn?!

Ab hier fällt plötzlich das neue Kühlsystem ein, dass sich Nvidia angeblich patentiert hat: "Axial-Radial Hybrid"
Für den Fall, dass dieses Kühlsystem wirklich so überzeugend ist wie vermutet, könnte die GTX870 Mini @ 780 Ti theoretisch silent werden.. ab Werk(!). Zusätzlich hätte man noch 4GB Speicher zur Verfügung.

Ich hab keine Ahnung ob das wirklich so kommt. Wenn doch und Nvidia nicht mit dem Preis übertreibt, wäre das der Kauftipp für Gaming-HTPCs und ITX-Systeme, eventuell sogar für SLI-Systeme.
 
Zuletzt bearbeitet von einem Moderator:
Hmm..Also das der Leistungsanstieg nicht hoch ist wusste ich ja von Anfang an, aber ich bin immer noch am überlegen ob sich ein Upgrade lohnen würde von msi 770 zu 880/Ti oder 890 je nach dem

Wenn du unbedingtngeld ausgeben moechtest und bisschen mehrleistung haben moechtest, bitte :). Lohnen eher weniger von der aktuellen Generation auf die naechste. Gibt zwar User die sowas machen, finde ich auch nicht schlimm, ist immerhin ein Hobby und hier nach Sinnhaftigkeit fragen ist sowieso unsinnig. Mein Ding ist es nicht unbedingt.
Wie schon geschrieben wurde, wenn du Leistung brauchst kaufen, wenn du mit deiner Karte gut zurechtkommst, warte. Bessere Karten kommen bestimmt ;)
 
Abwarten heißt es jetzt erstmal :D

Preis und Leistung wie das wird ^^ wenn es wirklich billiger wird kauf ich echt vil. eine
 
Ok, gut zu wissen, aber selbst mit 650mm^2 ist ein Cip möglich, welcher locker mal 50% schneller als die 290X ist;)
Wäre dann aber wohl 'zu teuer'.
IBM hat mit dem Power8 ebenfalls eine 675mm^2 CPU im angebot.

Der Power8 hat 649mm² und wird im hauseigenen 22nm SOI Verfahren gefertigt, NV setzt dagegen auf 28nm TSMC (HP oder HPL).

28nm ist z.B. auch nicht gleich 28nm, die Verfahren unterscheiden sich.

Mit steigender Größe verringerst du die Anzahl der Chips pro Wafer und du erhöhst das Risiko von defekten Chips. An das Limit zu gehen kann da durchaus in die Hose gehen, auch wenn 28nm HP TSMC sehr sehr gereift ist mittlerweile.

Die vielen Recheneinheiten bei einem theoretischen 650mm² wollen zudem mit "Strom" versorgt werden. Wenn du also mit dem Power-Budget nicht durch die Decke gehen willst, dann muss da logischerweise der Takt drunter leiden.

Hier muss man also gegeneinander abwägen und dann den sinnvollsten Weg gehen.

Ne, sowas meine ich nicht. Ich denke da an etwas ganz neues, zb. einen Chip welcher die Geometrieberechnung übernimmt, danach mehrere welche die ganzen Pixel berechnen (speicherweiterleitung oder sowas der geometriedaten) und zu guter letzt nochmals über die GPGPU einheiten das Post Prozessing bevor das Bild ausgegeben wird.
Oder so änlich wie intel mit den Multi Socel Systemen, wo viele CPU's mit je mehreren Kernen vom System wie 'eine' angesprochen werden können mithilfe eines schnellen Datentransports zwischen den einzelnen Chips.
Schon heute haben die GPU's ja 12 oder so Cluster welche einzeln angesprochen werden, wieso also nicht 2 Chips mit 10 Clustern zusammenhängen?

Ist jetzt nur eine dumme idee, die leute bei den Chipherstellern sollten sicher noch ausgereiftere haben.

Hehe, back to the roots quasi ;) Das hatten wir ja z.B. mit Voodoo 1 / 2 bzw. mit Rampage/Sage oder bei der 3DLabs Realizm 800 und noch so ein paar exotischen Vertretern.

Problem wäre hierbei in meinen Augen der Bus der hier alles miteinander verbindet. Du verhagelst dir das Timing und den Datendurchsatz, da letztendlich wieder alles miteinander synchronisiert werden muss. Ist leider nicht so einfach wie ein Cluster aus mehreren Servern und x CPUs.
 
Sicherlich kann eine GPU gewisse Aufgaben besser lösen als die CPU. Leider kann man es nicht immer über die GPU lösen. Angenommen du hättest eine aufwändig fordernde Spielszene inklusive aktivierten Qualitätsfeatures wie MSAA und/oder Downsampling/4K. Ich bin mir sicher da bekommst du nichts mehr auf die GPU gequetscht, schlicht weil sie am Limit läuft.

Selbiges bei der CPU. Im CPU-Limit geht einfach nichts mehr zusätzlich.
Das Kompilieren des Codes dauert dennoch zu lange, bis der ARM seine aufgaben kompiliert hat, hat die GPU das längst berechnet, wir reden hier von wenigen GFLop/s vs. ein rund 5 TFLop/s Monster;)
Das was du da beschreibst, geht alles sehr gut über die GPU, minimal grössere GPU's schaffen dort bereits deutlich mehr leistung als wenn du da noch einen starken ARM Code zuschaltest.

Nicht zwangsweise! Solange der ARM gleichzeitig die Verwaltung für seine Aufgaben übernimmt, sollte das funktionieren. Man hat ja sicherlich mehr als einen Kern auf dem SoC zur Verfügung.
Und er hat dennoch länger, ARM kerne sind nicht dafür ausgelegt, die können wie alle CPU kerne gut logische aufgaben übernehmen, das ist etwas wo die GPU mehr mühe hat.


Außerdem bezweifle ich, dass man doppelt kompilieren muss. Wir sollten nicht das Hauptfeature von Maxwell vergessen! Auf den Roadmaps ist immer noch "Unified Memory" angegeben, das CUDA schon seit Version 6 softwareseitig unterstützt. Das heißt die GPU/ARM hat die gleichen Daten zur Verfügung, die sich im CPU-Cache/Arbeitsspeicher befinden ... oder zumindest eine Kopie davon.
Jetzt verwechselst du etwas, unified Memory sagt nur aus wie der Speicher angesprochen wird, bzw. das eben alle auf den gleichen speicher zugreiffen können, aber GPGPU kerne und ARM CPU kerne sprechen nicht die gleiche sprache -> man muss 2 mal Kompilieren damit der code auf beiden ausgeführt werden kann.
Der unterschied ist etwa so gross wie zwischen Deutsch und Isländisch, wogegen eine x86 CPU wohl Norwegisch oder so wäre.


Durch dieses Feature und den stark vergrößerten Cache innerhalb von Maxwell, sollten immer genug Daten vorhanden sein, um die Anweisungen durchzuführen. Anschließend würde dann der ARM-SoC die Aufgaben deligieren. Läuft etwas besser in der CPU, wird es weiterhin dort ausgeführt. Hat der ARM etwas gefunden, was er gut kann, übernimmt er das und gibt die Ergebnisse weiter. Sahnestücke für die GPU werden dorthin geleitet und verarbeitet.
Ich denke schon das der ARM zum deligieren der aufgaben dienen wird, allerdings nicth in Spielen, da dort die aufgaben alle schon von der CPU vorbereitet kommen.
Der ARM kann nicht erkennen was er gut kann, er kann nur das machen was er soll. PhysX zb. wenn nur CPU PhysX aktiv ist, dafür würde er wohl sogar ausreichen. Für das deligieren der aufgaben an die SIMD sind aber andere rechenwerke zuständig.


Die Anzahl der Kerne ist für x86 nicht das Hauptproblem, sondern deren Größe und die Anzahl der gleichzeitig ausführbaren Threads. Hier ist eine GPU wegen der unzähligen Kerne im Vorteil. Für kleinere parallelisierte Aufgaben ist das effizienter. Bei größeren Rechenoperationen wäre dann die CPU pro Kern besser geeignet.
Jap, und genau deshalb macht es auch keinen sinn das die ARM kerne irgendwelche GPGPU aufgaben übernehmen. Die ARM kerne sollen PhysX oder solche spässe berechnen, von der Bildbearbeitung sollten Sie aber die finger lassen.
Die CPU Kerne sind übrigens ein vielfaches schneller als so ein SIMD Block.

Der Power8 hat 649mm² und wird im hauseigenen 22nm SOI Verfahren gefertigt, NV setzt dagegen auf 28nm TSMC (HP oder HPL).
thx für die korrektur.


Die vielen Recheneinheiten bei einem theoretischen 650mm² wollen zudem mit "Strom" versorgt werden. Wenn du also mit dem Power-Budget nicht durch die Decke gehen willst, dann muss da logischerweise der Takt drunter leiden.

Hier muss man also gegeneinander abwägen und dann den sinnvollsten Weg gehen.
Naja, spezifiztiert ist bis 375 Watt, wieso also diese nicht auch benutzen:D
solange die Perf/watt stimmt.


Hehe, back to the roots quasi ;) Das hatten wir ja z.B. mit Voodoo 1 / 2 bzw. mit Rampage/Sage oder bei der 3DLabs Realizm 800 und noch so ein paar exotischen Vertretern.

Problem wäre hierbei in meinen Augen der Bus der hier alles miteinander verbindet. Du verhagelst dir das Timing und den Datendurchsatz, da letztendlich wieder alles miteinander synchronisiert werden muss. Ist leider nicht so einfach wie ein Cluster aus mehreren Servern und x CPUs.
Wer sagt das die chips synchron laufen müssen? Man muss nur dafür sorgen das beide auf den gleichen speicher zugreiffen können, bevorzugt ohne das vieles über den BUS muss, damit könnte man sicher schon einiges einsparen, müsste eben nur nach der 3D berechnung alles in den hauptspeicher gepackt werden. Das dürfte aber nicht SO schwer zu lösen sein.

WIe gesagt, dei bei AMD, NV und Intel sollten da schon ausgereiftere ideen haben. AMD hat ja schon angefangen mit dem hybriden Crossfire. auch wenn dies nur eine Form von AFR ist.
 
Jetzt verwechselst du etwas, unified Memory sagt nur aus wie der Speicher angesprochen wird, bzw. das eben alle auf den gleichen speicher zugreiffen können, aber GPGPU kerne und ARM CPU kerne sprechen nicht die gleiche sprache -> man muss 2 mal Kompilieren damit der code auf beiden ausgeführt werden kann.

CPUs (ob x86 oder RISC), GPUs sprechen genau die selbe Sprache: Binary Instructions.
Abhängig von der jeweiligen Architektur gibt es große Unterschiede im Instruction Set und bei der grundsätzlichen Art und Weise wie bestimmte Intsruktionen verarbeitet werden. Wenn man jetzt die High Level Language Ebene betrachtet, dann entwickelt man z.B. in C# oder C++ und fügt entsprechende tags in den Code, die dem Compiler sagen das bestimmte Instruktionen von der GPU berechnet werden sollen und andere von der CPU (das bietet z.B. Cuda). Die tags alleine reichen nicht aus damit Instruktionen effizient verarbeitet werden können. Bei GPUs muss man genau sagen welche Berechnungen auf welchem SM und mit wievielen Threads laufen sollen. Wobei dies aktuell wahlweise auch ein Compiler machen kann, mit vielleicht etwas schlechteren Ergebnissen als bei einer händischen Optimierung.

Warum muss ich 2 mal kompilieren? Und auch wenn ich 10 mal kompilieren müsste, passiert dies nicht zu Laufzeit und spielt damit keine Rolle.
 
Zuletzt bearbeitet:
Die GTX 670 ist auch sparsam. Weiß du ja selbst. :D
Aber die benötigt die zwei 6 Pin Stecker und das wird auch so bleiben wenn du eine Oberklassen Grafikkarte kaufen willst.
 
Zurück