Nvidia Geforce GTX 750 Ti im Test: Maxwell, Meister der Energieeffizienz

Hm..

Ich schwanke jetzt zwischen dieser Grafikkarte für mein Low Profile System und einer XFX R7 250 2 GB DDR3 mit AMD A8-6500 2 GB DDR3 Dual Graphics (Overclocked). Die R7 250 ist zwar langsamer, bekommt durch die Dual Graphics aber einen Schub um 20-30%.
Hat jemand einen Vorschlag?

schwer zu sagen, ob apu + dezidierte radeon crossfire so gut kommt, (wobei ich sonst durchaus für multi gpu bin)
könnte schwer microruckelig sein, gerade wenn die leistung beider nicht 1 zu 1 ist
wär nen versuch wert
geht ne 260x auch?
die wäre etwa gleichstark und immer noch billiger als die 750ti, falls das dual graphics blöd kommt,
oder ist die nicht vorgesehen dafür?
 
Ich glaub also nicht, dass AMD da irgendwo mitziehen muss. Eher andersrum.
Tellerrand und so. Aber hauptsache mein Computing-Vollkrüppel quetscht ein paar mehr FPS aus einem Watt als eine günstigere AMD.

Nvidia-Karten sind keine "Computing-Vollkrüppel" - hast du denn jemals was von CUDA gehört, dem de-facto Standard in Sachen Rendering?!
Die 750 ist angesichts ihres Stromverbrauches ein Computing-Monster - siehe Cycles Benchmarks.
 
ähmmm...

Nein.

1. CUDA hat nichts aber auch rein gar nichts mit Rendering zu tun, sondern mit GPGPU, also Compute und die 750 ist wie die meisten nVidia GeForce Karten nen GPGPU-Grüppel, sobald man DP braucht.
 
ähmmm...

Nein.

1. CUDA hat nichts aber auch rein gar nichts mit Rendering zu tun, sondern mit GPGPU, also Compute und die 750 ist wie die meisten nVidia GeForce Karten nen GPGPU-Grüppel, sobald man DP braucht.

Uff ... noch nie etwas von GPU Rendering gehört?! https://render.otoy.com/index.php z.B.

Diese benutzen kein DP und da CUDA viel ausgereifter als OpenCL ist, kommt man hier nicht an Nvidia-Karten vorbei.

Edit: Bitte das nächste Mal informieren und dann erst posten.
 
Zuletzt bearbeitet:
Außerdem, welche Firma holt sich wirklich eine Mittelklasse Grafikkarte, um damit zu Rendern? Die Arbeitszeit, die dadurch verloren geht, wäre mehrfach ein Highendmodel wert gewesen...
 
Uff ... noch nie etwas von GPU Rendering gehört?! https://render.otoy.com/index.php z.B.
Und das hat jetzt genau was mit CUDA zu tun? Richtig gar nichts.

CUDA ist eine API/Programmiersprache, wie C/C++ oder auch Java eine ist. Damit kann man einen Renderer schreiben, wobei mit CUDA man nur einen Beschleunigen kann. C/C++ bzw. Java usw braucht man ja dennoch für das ganze Geraffel außen rum.

Es gibt auch genug andere Renderer, die auf allen möglichen APIs aufsetzen. Meist zwar C/C++, es gibt aber z.B. auch eine OpenGL Erweiterung, die dir aus OpenGL einen Raytracer baut, mit dem man ganz nette Ergebnisse bekommt. Verwendet heutzutage nur fast keine sau mehr. Blender, Luxx und eben das von dir genannte Octane sind da viel viel viel verbreitertet und heutzutage mehr oder weniger die Standardware.

Diese benutzen kein DP
Ähm...

NOT. Sorry, aber natürlich verwenden auch Renderer DP, bzw. unterstützen. Man muss es halt nur einschalten, was aber die wenigsten machen, da der Performancehit die Qualitäts"verbesserung" nicht rechtfertigt. Im Normalfall wird man schlicht keinen Unterschied sehen als Laie.

und da CUDA viel ausgereifter als OpenCL ist,
Ach so!!!

Natürlich, CUDA ist ausgereifter. Wie konnte ich das nur vergessen? Wobei wait!

Wie kommst du denn darauf? Was ist denn "ausgereifter" an CUDA? Und vor allem warum?

kommt man hier nicht an Nvidia-Karten vorbei.
Das stimmt allerdings. Denn CUDA gibt es da propritär, eben nur mit nem nVidia Produkt... Das sagt aber rein gar nichts über die Qualität aus... :-_-:


Edit: Bitte das nächste Mal informieren und dann erst posten.
Hättest du es doch nur bei der PM belassen, ich hätte es dir in Ruhe erklärt, wo dein Denkfehler ist.

Ich weiß nicht, wieviel du mit GPGPU am Hut hast, aber ich befürchte eher weniger.
 
Ich selber nutze weder CUDA noch sonst irgend eine GPGPU aktiv. Ich kann nur wiedergeben, was einige Programmierer aus meinen Kreisen sagen und die sind mehrhaltig auch der Meinung, dass Cuda und Nvidia-Karten für sie angenehmer sind, einfacher zu handhaben und stabiler sind. Ich kann es wie gesagt nicht bewerten in dem Bereich, sondern nur weitergeben, was andere sagen, die täglich damit arbeiten müssen.
 
Und das hat jetzt genau was mit CUDA zu tun? Richtig gar nichts.

Kruzifixhalleluja, wir reden aneinander vorbei.

Du sagst, CUDA hat nichts mit Rendering zu tun. Ich gebe dir eines von vielen Beispielen eines CUDA-Renderers. -> Du sagst, das hätte nichts mit CUDA zu tun. Ich schüttle meinen Kopf ...

Noch einmal: Versuche doch, Blenders Cycles auf einer Nicht-CUDA-GPU laufen zu lassen und du wirst sehen, dass es nach CUDA verlangt, also sehr wohl etwas mit CUDA zu tun hat ...

Ist jetzt klar, was ich meinte? Ich habe nie gesagt, dass CUDA dieses oder jenes wäre, sondern es etwas mit Renderern zu tun hat, welche - was mein ursprünglicher Punkt war - auf der 750 Ti angesichts ihrer TDP VERDAMMT schnell laufen, was diese Karte zu einem kleinen Computing-Monster machen.

Hier ein Zitat von DingTo - einem Blender-Entwickler bzgl. OpenCL:
1) Der Fehler liegt zu >95% auf AMDs Seite. Unser OpenCL Code funktioniert auf anderen GPU und CPU Plattformen.
2) Die meisten kommerziellen GPU Render Engines setzen auf CUDA und nicht auf OpenCL. Warum wohl? :idea:
Und die Engines die auch OpenCL benutzen, sind meistens nur Hybriden (Ray Tracing auf GPU), das Shading etc. findet weiterhin auf CPU statt.

Luxrender ist hier eine Ausnahme, weil sie ihr Programm in kleinere Kernel aufgeteilt haben. Das hat Vor und Nachteile. Dennoch haben auch die Probleme mit AMD. Du musst mal Jens fragen (einer der Lux Entwickler), der ist gar nicht gut auf AMD und deren OpenCL Compiler zu sprechen.

Ich bestreite ja gar nicht, dass wir auf unserer Seite den OpenCL Code verbessern können, aber ohne funktionierende AMD Treiber macht das wenig Sinn. AMD hat in den letzten Wochen nachgelegt, aber wir sind dennoch noch nicht am Ziel. :|
 
Zuletzt bearbeitet:
Zurück