Nvidia Tesla K80: Server-Grafikkarte mit Dual-GK210 und 24 GiByte VRAM

Na hörmal, er ist von der ETH Zürich. Wenn der professor sagt, ist so, dann ist das so. Was auch immer er meint :gruebel:

(nicht böse gemeint, ist nur Spaß :) )

bye
Spinal
 
Es gibt in Profi-Segment momentan nichts besseres außer NVidia. Was sich Kunden in dieser Branche wünschen sind: High-Level-Support der erschwinglich und Kundennah ist + eine perfekte Garantieleistung. Das kann AMD mit ihren Produkten immer noch nicht bieten. Da sind dir paar Watt weniger verbrauch in Relation zu den DPs humpitz. Dessweiteren bietet NVidia mit Cuda eine perfekte Plattform für effizientere Programmierung ohne einen eigenen Entwickler im Hause sitzen zu haben. All das ist der Grund für diesen Marktanteil. Leute die sich Rechner oder Server mit Teslas kaufen schauen nicht in die Bildzeitung. Da sind ausgewählte Fachhändler für zuständig. Das hat beim besten Willen nichts mit Marketing zutuen.


zwischen OpenCL und Cuda gibt es was Performance angeht keinen Unterschied beide Programmiermodelle sind auf der selben Karte gleich schnell, OpenCL ist länger was den HostCode angeht und auch nicht so leicht lesbar,wenn jemand aber öfters damit arbeitet macht das kaum einen Unterschied einfach copy und paste und man braucht keine Support mehr von irgendeinen, ausserdem was soll den logisch daran sein,dass man doppelt soviel zahlt für eine Karte zahlt (Nvidia) wo man bei weniger Geld die gleiche Leistung bekommt (AMD).
 
Na es gibt schon Performanceunterschiede zwischen OpenCL und CUDA auf nVidia GPUs. OpenCL wird da nämlich erst nochmal auf CUDA umgebogen. nVidia hat auch gar kein Interesse daran OpenCL gleich performant wie CUDA zu machen, dann hätten Sie ja ein Verkaufsargument weniger für ihren propritären Rotz.
 
So sieht es nämlich (leider) aus :-( Intel kocht mit dem Xeon Phi ja noch ne ganz andere Suppe, deren OpenCL Support soll ja auch noch(?) nicht so das Gelbe vom Ei sein. Habe selbst nur nativ auf der Kiste gearbeitet, daher kann ich da aus eigener Erfahrung nichts zu sagen.
 
Na es gibt schon Performanceunterschiede zwischen OpenCL und CUDA auf nVidia GPUs. OpenCL wird da nämlich erst nochmal auf CUDA umgebogen. nVidia hat auch gar kein Interesse daran OpenCL gleich performant wie CUDA zu machen, dann hätten Sie ja ein Verkaufsargument weniger für ihren propritären Rotz.
kompiliert bitte !!!, es sind 1 bis 3 Prozent was ich bis jetzt so mitbekommen hab, den Unterschied machen so Features wie Shared Pointer (was im Grunde eh niemand ) braucht und kurzer Host Code, der Speicher wird übrigens nur gespiegelt nur für APUs gibt es wirkliche Shared Pointer
 
So sieht es nämlich (leider) aus :-( Intel kocht mit dem Xeon Phi ja noch ne ganz andere Suppe, deren OpenCL Support soll ja auch noch(?) nicht so das Gelbe vom Ei sein. Habe selbst nur nativ auf der Kiste gearbeitet, daher kann ich da aus eigener Erfahrung nichts zu sagen.

so schlecht geht OpenCL gar nicht ab vor allem wenn du den Speicherinhalt öfters benutzt,
für nativ gilt du solltest den Speicher nur einmal allozieren und möglichst oft benutzen anstatt immer wieder herumzukopieren (vor allem wenn du Schleifen noch darüber hast) , der Upload ist einfach total schlecht gegenüber GPUs

MPI ist besser wenn du mit Xeon Phi arbeitest, vorallem wenn du herumkopiert also ein Prozess für Xeon Phi und halt 240 OMP Threads,
ich hab auch gesehen,dass bei der MAGMA (GMM) ein Client + Server Programm geschrieben wurde,damit kommt auf 900GFlops für die Matrixmultiplikation was garnicht so schlecht ist für das Alter und den momentanen Preis,da sind alle Nvidia Karten viel zu teuer.
 
Naja, MPI lief bei mir überhaupt nicht gut, allerdings hatte ich nur ein selbstkompililertes MPICH. Mit OpenMP ging die Kiste dann aber relativ gut ab, unter realitätsfernen (höhö) Settings etwas über 180 GB/s bei der Vektoraddition (von theoretisch 320 GB/s :ugly:) mit einem Xeon Phi 5110.

Ich meinte bei OpenCL auch eher den Vergleich zu den anderen Varianten (LEO, etc.). Das hatte mir sogar mal einer von Intel bestätigt, ist jetzt aber auch schon wieder ein Jahr her.
 
XeonPhi hat eh ein paar seltsame Eigenschaften, was den Speicherzugriff und auch die Interaktion mit dem Host anbelangt. Hat mir schon verdammt viel Kopfzerbrechen gemacht, aber ich mach schon seit fast nem Jahr fast nicht mehr mit denen :D
 
Das ist mir auch aufgefallen. Ich hatte da mal bei einer Anwendung mit dem VTune Analyzer draufgekloppt und da blieb an einigen Stellen relativ viel Zeit bei irgendwelchen mov Instruktionen. Aber insgesamt gefällt mir die Kiste ganz gut, hätte auch gerne einen für zu Hause. Aber 3k € ist dann doch ein bisschen zu viel, zumal der ja nicht auf jedem Board läuft wegen dieser Large Base Address Register Geschichte.
 
Dein MB muss "nur" große Bars unterstützten, also 64Bit PCI-E Adressen unterstützen. An sich klar, wie wie willste sonst die >4GB RAM adressieren ;)

An sich sollte das aber nicht DAS Problem sein, so lange man nicht PCI-E Switches oder Router drin hat. Es muss "nur" das Bios mitspielen, das könnte aber durchaus ein Problem sein, obwohl es die HArdware an sich könnte :(
 
Jupp, BIOS macht das idR bei Consumerboards net mit. Ich meine auch mal gelesen zu haben, dass diese Large BAR Geschichte ne Sonderwurst von Intel ist, die Teslas bräuchten das nicht, da die nur eine 256 MB Memory Map brauchen? Ist aber auch schon wieder ne Weile her... Aktuell gibts von Intel ja den kleinen 31S1P für 200$, da würde ich ja schon schwach werden (auch wenn's das passive Modell ist, müsste man halt was basteln :ugly:)
 
Wie gesagt, das war schon was länger her, keine Ahnung welche Tesla das war. Trotzdem find ich den Phi irgendwie cooler *haben will* Nur ein Phi mit passendem Unterbau ist für ein paar Spielereien leider viel zu teuer.
 
Zurück