GPU als eine CPU ?

Das stimmt nicht, da die Chips für verschiedene Bereiche entworfen wurden, z.B besteht die GPU aus mehreren Tausend Shadern, wohingegen eine CPU acht (oder mehr/weniger) "große" Kerne hat, eine CPU hat auch meistens einen höheren Takt. Außerdem ist die Architektur eine ganz andere, GPUs haben mWn z.B keinen Cache. Allgemein lassen sich GPUs mit CPUs also eher schwer vergleichen.

(wenn ich irgendwo Mist gelabert habe verbessert mich bitte :))
 
Man kann sie aber als CPU verwenden (GPU prozessing ) .
Hierbei werden dann aufgaben auf die GPU ausgelagert .
http://de.m.wikipedia.org/wiki/Supercomputer bei ausgewählten Supercomputern kannst du es mal anschauen da haben so ziemlich alle Pc's die gleiche CPU Anzahl wie GPU s die die CPUs unterstützen .
Einen PC gibt es auch der deutlich mehr GPU s hat . Das ist einer von den GPU prozessing Computern .(also bei allen rechnen die GPU s mit aber dieser gibt eine grosszahl der aufgaben an die GPU s )
Du kennst das vielleicht auch von Photoshop .
Da kann man seine GPU auch mit rechnen lassen .
Mfg
 
aber die gpu zu nutzen(meist mit open cl) lohnt sich nur bei anwendungen die sehr parallel arbeiten, die cpu arbeitet eher seriell.
programme die dafür ausgelegt sind unterstützen die berechnung per gpu meist schon.
 
Das stimmt nicht, da die Chips für verschiedene Bereiche entworfen wurden, z.B besteht die GPU aus mehreren Tausend Shadern, wohingegen eine CPU acht (oder mehr/weniger) "große" Kerne hat, eine CPU hat auch meistens einen höheren Takt. Außerdem ist die Architektur eine ganz andere, GPUs haben mWn z.B keinen Cache. Allgemein lassen sich GPUs mit CPUs also eher schwer vergleichen.

(wenn ich irgendwo Mist gelabert habe verbessert mich bitte :))
GPUs haben ebenso Caches, ganz viele Caches und Register. Die Balance ist bloß eine andere, also wie groß ein jeweiliger Cache ist, wo genau er angebunden ist etc.
Ältere GPUs hatten etwas eingeschränktere Caches und Zugriffsmöglichkeiten, seit Fermi und GCN ist das von den Möglichkeiten deutlich besser geworden.
Auch da finden sich L1 und L2 Caches zum lesen und schreiben, dazu viele weitere Caches die an anderen Stellen das Caching für gewisse Operationen übernehmen.

Man kann sie aber als CPU verwenden (GPU prozessing ) .
Hierbei werden dann aufgaben auf die GPU ausgelagert .
Supercomputer bei ausgewählten Supercomputern kannst du es mal anschauen da haben so ziemlich alle Pc's die gleiche CPU Anzahl wie GPU s die die CPUs unterstützen .
Einen PC gibt es auch der deutlich mehr GPU s hat . Das ist einer von den GPU prozessing Computern .(also bei allen rechnen die GPU s mit aber dieser gibt eine grosszahl der aufgaben an die GPU s )
Du kennst das vielleicht auch von Photoshop .
Da kann man seine GPU auch mit rechnen lassen .
Mfg
Eine GPU als eine CPU zu verwenden würde bei mir heißen, die GPU könnte theoretisch auch alles erledigen was eine CPU kann, mal unabhängig von der Geschwindigkeit und das stimmt nicht.
Der GPU fehlen bei einigen Gebieten einfach die Befehle (Instruktionen/Anweisungen/ISA) um gewisse Ansteuerungen erledigen zu können.
Eine GPU kann nicht unabhängig agieren und alles von alleine berechnen oder steuern, eine CPU kann das.

GPU-Compute ermöglicht "nur" die GPU auch für etwas mehr zu verwenden, als für das reine 3D-Rendering.
So können auch Aufgaben übernommen werden, die typischerweise bisher von CPUs übernommen wurden.
Es macht schließlich für einige Gebiete keinen Sinn die CPU alles berechnen zu lassen, da sich eine GPU für einige Sachen prinzipiell besser eignen könnte.
Immer eine Frage ob die Problemstellung eher Seriell abgearbeitet werden muss oder durch hohe Parallelität große Geschwindigkeitsvorteile verbuchen kann, dann sollte natürlich lieber eine GPU zu rate gezogen werden.

Als Fazit würde ich eher sagen, die GPUs sind schlauer geworden und können jetzt mehr als früher, eine CPU wird man damit dennoch nicht ersetzen können.
Die Entwicklungen gehen aber in die Richtung GPU und CPU immer mehr zu verschmelzen, nennt AMD ja APUs, aber im Grunde könnte man das auch wieder CPU nennen.
Aber das sind wieder "nur" Begrifflichkeiten über die man sich streiten könnte.
 
GPU und CPU haben beide ihre Daseinsberechtigung.
CPUs eignen sich für viele unterschiedliche meist serielle Berechnungen, während GPUs so entwickelt sind, dass sie viele kleine parallele Berechnungen sehr effizient durchführen können. Gerade bei Supercomputern, auf denen oft Simulationen (z.b. Klima) laufen, muss viel parallel gerechnet werden, wozu sich GPUs nunmal super eigenen.
Sicher kann eine CPU auch die Berechnungnen einer GPU übernehmen und umgekehrt, doch das wäre alles andere als schnell und effizient.
Jeder sollte das machen, was er am besten kann! ;)
 
GPUs haben ebenso Caches, ganz viele Caches und Register. Die Balance ist bloß eine andere, also wie groß ein jeweiliger Cache ist, wo genau er angebunden ist etc.
Ältere GPUs hatten etwas eingeschränktere Caches und Zugriffsmöglichkeiten, seit Fermi und GCN ist das von den Möglichkeiten deutlich besser geworden.
Auch da finden sich L1 und L2 Caches zum lesen und schreiben, dazu viele weitere Caches die an anderen Stellen das Caching für gewisse Operationen übernehmen.


Eine GPU als eine CPU zu verwenden würde bei mir heißen, die GPU könnte theoretisch auch alles erledigen was eine CPU kann, mal unabhängig von der Geschwindigkeit und das stimmt nicht.
Der GPU fehlen bei einigen Gebieten einfach die Befehle (Instruktionen/Anweisungen/ISA) um gewisse Ansteuerungen erledigen zu können.
Eine GPU kann nicht unabhängig agieren und alles von alleine berechnen oder steuern, eine CPU kann das.

GPU-Compute ermöglicht "nur" die GPU auch für etwas mehr zu verwenden, als für das reine 3D-Rendering.
So können auch Aufgaben übernommen werden, die typischerweise bisher von CPUs übernommen wurden.
Es macht schließlich für einige Gebiete keinen Sinn die CPU alles berechnen zu lassen, da sich eine GPU für einige Sachen prinzipiell besser eignen könnte.
Immer eine Frage ob die Problemstellung eher Seriell abgearbeitet werden muss oder durch hohe Parallelität große Geschwindigkeitsvorteile verbuchen kann, dann sollte natürlich lieber eine GPU zu rate gezogen werden.

Als Fazit würde ich eher sagen, die GPUs sind schlauer geworden und können jetzt mehr als früher, eine CPU wird man damit dennoch nicht ersetzen können.
Die Entwicklungen gehen aber in die Richtung GPU und CPU immer mehr zu verschmelzen, nennt AMD ja APUs, aber im Grunde könnte man das auch wieder CPU nennen.
Aber das sind wieder "nur" Begrifflichkeiten über die man sich streiten könnte.

Aber ein APU ist ja auch nur eine CPU und eine GPU auf einem DIE nicht?
 
Eine GPU kann man wunderbar für ein Bruteforce benutzen .. dabei kann eine GTX 590 ca 60.000 Passwörter pro Sekunde auf den Hash los jagen. Ein i5 2500k kann hingegen nur knapp 4000 pro Sekunde machen. Dies liegt aber nur an den kernen und hier schon mal erwähnten parallelen Arbeiten. 512 vs 4 Kerne :)

Generell kann man die GPU zur Unterstützung von Rechenaufgaben verwenden. Wie eben erwähnt Bruteforce, Bild und Video-Bearbeitung, Kompilierung und das bearbeiten hochkomplexer Aufgaben (i.d.r auf einem Super Computer)

Die Verwendung der GPU zum arbeiten mit Windows (mit Ausnahme der Desktop 3D Beschleunigung) ist im Moment nicht möglich.
 
Aber ein APU ist ja auch nur eine CPU und eine GPU auf einem DIE nicht?
Grob ja, ist aber ein bisschen mehr.
Die Frage ist wie betrachtet man das Wort CPU? CPU = Zentrale Recheneinheit.
Je mehr die GPU erledigt und kann, desto mehr wird die GPU doch zum Zentrum und somit selber zur CPU :P
Ist eine APU nicht von der Begrifflichkeit eine pure CPU, sie erledigt immerhin alles?
Aber das ist nur ein Level der Begrifflichkeit, man kann den Namen auch technisch werten, in Informatik Büchern ist auch sicher definiert was zu einer CPU und GPU dazugehört.
Im Laufe der Zeit könnte man aber schon sagen, dass gewisse Definitionen zu grob oder heutzutage nicht mehr anzuwenden sind.
AMD spricht bei einigen HSA/APU PDFs auch gar nicht von CPU und GPU, sondern nur von Latenz-Einheiten (Latency-Compute-Unit) und Durchsatz-Einheiten (Throughput-Compute-Unit).

Ist jetzt natürlich eine philosophische Angelegenheit, wem man welchen Namen gibt und ob man noch unterscheiden möchte oder dem ganzen Gebilde einen alten oder neuen Namen geht oder whatever.
 
GPUs haben ebenso Caches, ganz viele Caches und Register. Die Balance ist bloß eine andere, also wie groß ein jeweiliger Cache ist, wo genau er angebunden ist etc.
Ältere GPUs hatten etwas eingeschränktere Caches und Zugriffsmöglichkeiten, seit Fermi und GCN ist das von den Möglichkeiten deutlich besser geworden.
Auch da finden sich L1 und L2 Caches zum lesen und schreiben, dazu viele weitere Caches die an anderen Stellen das Caching für gewisse Operationen übernehmen.

Eine GPU als eine CPU zu verwenden würde bei mir heißen, die GPU könnte theoretisch auch alles erledigen was eine CPU kann, mal unabhängig von der Geschwindigkeit und das stimmt nicht.
Der GPU fehlen bei einigen Gebieten einfach die Befehle (Instruktionen/Anweisungen/ISA) um gewisse Ansteuerungen erledigen zu können.
Eine GPU kann nicht unabhängig agieren und alles von alleine berechnen oder steuern, eine CPU kann das.

GPU-Compute ermöglicht "nur" die GPU auch für etwas mehr zu verwenden, als für das reine 3D-Rendering.
So können auch Aufgaben übernommen werden, die typischerweise bisher von CPUs übernommen wurden.
Es macht schließlich für einige Gebiete keinen Sinn die CPU alles berechnen zu lassen, da sich eine GPU für einige Sachen prinzipiell besser eignen könnte.
Immer eine Frage ob die Problemstellung eher Seriell abgearbeitet werden muss oder durch hohe Parallelität große Geschwindigkeitsvorteile verbuchen kann, dann sollte natürlich lieber eine GPU zu rate gezogen werden.

Als Fazit würde ich eher sagen, die GPUs sind schlauer geworden und können jetzt mehr als früher, eine CPU wird man damit dennoch nicht ersetzen können.
Die Entwicklungen gehen aber in die Richtung GPU und CPU immer mehr zu verschmelzen, nennt AMD ja APUs, aber im Grunde könnte man das auch wieder CPU nennen.
Aber das sind wieder "nur" Begrifflichkeiten über die man sich streiten könnte.

Ich habe ja gesagt das die GPU mit rechnet ...
Vielleicht etwas unglücklich im 1. Statt aber der 2. Sollte es klar machen das aufgaben ausgelagert werden ;)
 
Ich hab gefragt weil ich eine GTX580 hab, die viel zu schnell für ein E8400/Q9300 ist und deswegen wollte ich das die GTX580 der CPU hilft.
Wenn ich so alles lese dann funtzt es nur bei Videobearbeitung, photoshop usw.
 
Wenn ein Grafikkarten-Chip auch als CPU verwendet werden könnte würde Ich keinen Sinn drine sehen zwei verschiedene Komponenten zu verbauen.
 
Zuletzt bearbeitet:
Also.
Du musst dir das so vorstellen.

Eine GPU kann eine ganz bestimmte Sache unfassbar gut. So gut dass keine CPU auf der Welt da hinterher kommt.
Eine CPU aber kann unwahrscheinlich viele Sachen machen. Zwar jeweils eine davon nicht so wahnsinnig schnell wie eine GPU aber dafür eben sehr viele.
Die GPU kann also eine berstimmte Sache schneller machen als die CPU dafür kann sie aber alle anderen Sachen was die CPU auch macht nicht.
 
Und deshalb geht es am schnellsten wenn die GPU das macht was am besten ist , und die CPU das macht was sie am besten kann .
 
Helfen ja, aber auf dauer als CPU verwenden habe ich nicht behauptet.
Vielleicht habe ich das ja etwas undeutlich geschrieben.

1. Steht hier nichts von helfen.
2. Wenn man das liest, würde das bedeuten das du deine CPU durch eine GPU ersetzen willst, wenn man eine CPU durch eine GPU ersetzt bedeutet es das man es auf "dauer" macht, wenn man eine CPU raus nimmt ist es weg...
3. Du laberst irgendetwas was du hier gelesen hast, aber selber keine Ahnung hast.
4. Lass besser die Profis vor und stell dich mit mir hinten an und lerne mit mir anstatt unnötiges zeug zu labern und zu diskutieren.
Wenn ein Grafikkarten-Chip auch als CPU verwendet werden könnte würde Ich keinen Sinn drine sehen zwei verschiedene Komponenten zu verbauen.

lol, erstes mal was nützliches geschrieben (punkt 4).
 
Zurück