Nvidia Geforce Now: Benchmark-Ergebnisse der RTX T10-8 und des Intel CC150

das steht in letzter zeit immer öfter als erste antwort eines threads - wollt ihr dagegen was unternehmen, pcgh?

Du musst die Frage anders stellen: Sollen wir mal 2 Tage aufhören was dagegen zu unternehmen?
Die Typen sind wie die Borg, sie passen sich immer wieder an. Kaum schlagen irgendwelche Filter an, nutzen sie neue Schlagworte und URLs.


Wie kann es sein dass diese Bots jetzt auch hier ihr Unwesen treiben? Bei Gamestar war das die letzte Zeit echt heftig, jetzt gehts hier auch noch los. Sperrt doch diese Bots gleich beim ersten Verstoß, für was anderes sind die eh nicht hier.

Meinste wir schreiben erst freundlich mit denen? :ugly:

Und gleich ist da wieder der nächste... :ugly:

Ja, no kidding.
Als würde hier jemand drauf reinfallen. Wir kennen doch alle p*rnhub, ich glaub hier gabs sogar schon News zu der Seite.
 
Energieeffizienter.
Billiger.
Mehr Kerne
Für diesen konkreten Einsatzzweck sind die Aussagen so gar nicht zu machen.

Kennst Du die Energieeffizienz von diesem Modell bei diesem Takt? Kennst Du den Preis, den Intel von NVidia verlangt? Und die Zahl der Kerne hat sich NVidia genau so ausgesucht.
 
Schneller bei gleichem Takt, weniger Stromverbrauch und Liste günstiger. Genug?
Wobei schnell ja relativ ist, für 30-60Hz Streams taugt jede CPU.

IPC ist bei CoffeLake noch immer ein kleines Stück höher als bei Ryzen3000, sprich ist ein Stück schneller bei selbem Takt. Stromverbrauch tut sich bei nur 3,5GHz nicht viel (der CC150 verbraucht maximal 80W und wird wohl von Intel mit 60W TDP angegeben) und kostet Listenpreis 310$, der Ryzen 3700X kostet 330$. Die Ryzen3000 CPUs sind für den Desktop und den normalen Spieler das beste was man aktuell kaufen kann, in diesem Fall macht die Intel CPU aber mehr Sinn, vor allem wenn Nvidia einen Rabatt bekommt.

Mal gucken wie sich Nvidias GFN Programm entwickelt. Als sie letztes Jahr GFN als großen Streaming Dienst angekündigt haben wollten die ja ein Partnerprogramm starten um nicht die komplette Infrastruktur selber aufzubauen. Die RTX T10-8 wenn aufgeteilt auf 2 Benutzer sollte Leistung rund um die 2070 Super liefern, die CPU finde ich vor allem durch die geringe Kernzahl etwas schwach. 4 Kerne reichen zwar für geschätzt 80% aller Spiele aber immer mehr unterstützen mehr als 4 Kerne und große Open World Spiele wie z.B. AC Origins oder AC Odyssey haben nervige Ruckler wenn man nur 4 Kerne hat und in den Spielen ist man sehr schnell im CPU Limit (bin in AC Odyssey mit meinem 2700X@4,3GHz im CPU Limit). Ein Threadripper oder Epyc, wenn auch teurer, würde hier meiner Meinung nach mehr Sinn machen. Die machen bei Volllast auch bei 3,5GHz dicht, haben etwas geringere IPC aber haben sehr viele Kerne wo man jedem Nutzer dann 8 Kerne+SMT zuordnen kann und das ganze auf einem Chiplet läuft was das Scheduling einfacher macht und man Flaschenhälse umgeht. Vor allem wenn Partner Serverfarmen aufbauen sollen und diese zur Verfügung für GFN stellen sollen, wenn die Server nicht komplett ausgelastet sind, macht Epyc viel mehr Sinn.
 
Was ist eigentlich in letzter Zeit los, woher kommen die ganzen Bots? Ist zwar nicht im Sinne des Erfinders, aber warum lässt man aktuell neu Registrierungen zu bzw. verschärft nicht zumindest den Beitrtittsvorgang, in dem man z.B. die ersten 15 Kommentare nicht sofort posten kann und erst durch euch freigegeben werden muss. Wenn dann diese "Probezeit" bestanden ist, wird der ACC komplett aktiv... Besser als im Nachgang alles aufzuräumen...

Edit: Nicht falsch verstehen, keine Kritik an den Mods, ihr macht das toll und ziemlich flott...
 
Gibt es nicht Spiele, wo der interne Benchmark vielleicht auch GPU Taktraten ausließt? Bevor man da nichts genaueres weiß, ist das alles nur Spekulation. Eine 2080ti sollte doch mehr als 2 Games in 1080p/30-60FPS schaffen. Also entweder mehr Performance, oder mehr parallele Clients? Ich vermute, dass so wie die CPU, auch die GPU massiv auf Effizienz getrimmt ist. Macht ja auch kühlungsmäßig Sinn, wenn das ganze in normalen Server Racks angeordnet ist. Da kühlt man nicht mal so eben 8x5,0GHz & eine echte 2080ti weg.

Wenn im Endeffekt nur ein 3,5GHz Quadcore zur Verfügung steht, dann wird die GPU Power leider der gleiche Witz sein. Nvidia tut sich keinen Gefallen damit die Rohleistung eines 600€ Discounter PCs anzubieten.:daumen2:
 
Für diesen konkreten Einsatzzweck sind die Aussagen so gar nicht zu machen.

Kennst Du die Energieeffizienz von diesem Modell bei diesem Takt? Kennst Du den Preis, den Intel von NVidia verlangt? Und die Zahl der Kerne hat sich NVidia genau so ausgesucht.

Naja.. man könnte in einem vernünftigen Server Rack bei 64 Kernen und 4 Grafikkarten gleich 8 Instanzen mit mehr Kernen laufen lassen.
Das spart enorm an Platz und im Vergleich zur 80W TDP des CC150 sind die 280W (bei entsprechender Einstellung) eine sehr geringe Steigerung und pro Kern nochmal deutlich weniger.
Bei den Messwerten ist man sicher nicht im CPU Limit... eher im GPU Limit.
 
Naja.. man könnte in einem vernünftigen Server Rack bei 64 Kernen und 4 Grafikkarten gleich 8 Instanzen mit mehr Kernen laufen lassen.
Das spart enorm an Platz und im Vergleich zur 80W TDP des CC150 sind die 280W (bei entsprechender Einstellung) eine sehr geringe Steigerung und pro Kern nochmal deutlich weniger.
Bei den Messwerten ist man sicher nicht im CPU Limit... eher im GPU Limit.

Glaub ich ehrlich gesagt nicht. Es dürfte schon schwierig genug sein, zwei GPUs mit 2 getrennten VMs und Spielen vernünftig zum Laufen zu bekommen.
 
Glaub ich ehrlich gesagt nicht. Es dürfte schon schwierig genug sein, zwei GPUs mit 2 getrennten VMs und Spielen vernünftig zum Laufen zu bekommen.

Ist ein Punkt, aber die heutigen VMs sind auf Serverbetrieb ausgelegt.
Wenn man eine CPU mit einer GPU auf zwei instanzen teilen kann - wie Nvidia es hier ja macht - sollte es kaum schwerer sein, eine CPU mit 8 Facher Kernzahl auf 8 Instanzen zu teilen und dann eben 4 GPUs auf diese Instanzen zu verteilen.
 
Wieso man ausgerechnet das Vorzeigeprodukt für Vulkan / DX 12 mit DX 11 bencht, muss sich mir nicht erschließen oder?

Wen will man mit 20-30 FPS denn so als Kunden anwerben? Selbst die PS3 macht stabile 30FPS in FHD.
21,7 FPS hatte ich zuletzt in den Anfangstagen von 3D-Spielen und ich hatte immer eher günstige Grafikkarten.
 
Wieso man ausgerechnet das Vorzeigeprodukt für Vulkan / DX 12 mit DX 11 bencht, muss sich mir nicht erschließen oder?

Wen will man mit 20-30 FPS denn so als Kunden anwerben? Selbst die PS3 macht stabile 30FPS in FHD.
21,7 FPS hatte ich zuletzt in den Anfangstagen von 3D-Spielen und ich hatte immer eher günstige Grafikkarten.

Ich hab kein Geforce Now... aber vielleicht lässt es kein DX12 in den Einstellungen zu?
 
Spiele belasten einen Rechner ganz anders, als herkömmliche Cloud-Anwendungen. Gerade der IO-, PCIe-Bus und der Speicher werden mit ganz anderen Datenmengen und Durchsätzen belastet.

Mich würde interessieren, wie Stadia und die anderen Anbieter das so machen.
 
Spiele belasten einen Rechner ganz anders, als herkömmliche Cloud-Anwendungen. Gerade der IO-, PCIe-Bus und der Speicher werden mit ganz anderen Datenmengen und Durchsätzen belastet.

Mich würde interessieren, wie Stadia und die anderen Anbieter das so machen.

Kommt drauf an, was du als "herkömmlich" bezeichnest.
GPGPU Anwendungen sind da noch deutlich fordernder, als Spiele. Mit diesen Anwendungen bekommst du auch eine PCI3x16 Verbindung ausgelastet, während Spiele es gerade mal auf die Hälfte bringen.

Die "herkömmlichen" Cloud Anwendungen haben auch meist keine einzige GPU im System. Sie brauchen keine Grafikausgabe, oder auch GPGPU Berechnungen.
Auf einer 64 Kern 128 Thread CPU laufen dann auch gern mal 128 Instanzen für Webhosting... vor allem bei den kostenlosen Anbietern.
 
Rechner, die auf GPGPU optimiert sind, benötigen i.d.R. auch nicht viele CPU Kerne... :) Womit sich der Kreis schließt.
 
Zurück