Intel Xeon Phi: Neue Beschleuniger-Karten gesichtet

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Xeon Phi: Neue Beschleuniger-Karten gesichtet

Rund ein halbes Jahr nach der Vorstellung der ersten Xeon Phi schickt sich Intel an, weitere Beschleuniger-Karten vom Stapel zu lassen. Die neuen Modelle bieten weniger Datentransfer-Rate, dafür aber in Relation eine höhere Rechenleistung.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Intel Xeon Phi: Neue Beschleuniger-Karten gesichtet
 
Mich würde ja interessieren wie Tauglich die Karten in Sachen Spiele sind, wäre durchaus von Vorteil wenn Intel im Grafikkartengeschäft doch noch Fuss fassen würde.
Dadurch liese sich das Oligopol von NVidia/AMD zugunsten der Kunden aufweichen:)
 
Mich würde ja interessieren wie Tauglich die Karten in Sachen Spiele sind, wäre durchaus von Vorteil wenn Intel im Grafikkartengeschäft doch noch Fuss fassen würde.
Dadurch liese sich das Oligopol von NVidia/AMD zugunsten der Kunden aufweichen:)

Xeon Phi ist komplett untauglich in sachen Spiele Darstellung.
Es handelt sich hierbei um eine CoProzessor Karte die durch viele Kerne in der x86 Stuktur für Server und Wissenschaftliche Berechnungen herangezogen werden soll.
 
Mich würde ja interessieren wie Tauglich die Karten in Sachen Spiele sind, wäre durchaus von Vorteil wenn Intel im Grafikkartengeschäft doch noch Fuss fassen würde.
Dadurch liese sich das Oligopol von NVidia/AMD zugunsten der Kunden aufweichen:)

Intel ist doch jetzt schon Marktführer bei GPUs^^ Auch wenn es nur IGPs sind. Und ob Intel noch eine dieser Karten als Grafikkarte anbieten wird, halte Ich auch für sehr fragwürdig.

Vorher bringt AMD noch eine Über-APU bestehend aus 4 Steamroller-Modulen einer GPU in der Größenordnung einer HD9970 :D (wie geil wärs eigentlich)

Vielleicht mischt Intel da mal stärker mit, wenn Raytracing die Runde macht.

Aber recht hast du damit, dass mehr Hersteller nicht schlecht wären. Schade, dass 3dfx damals an nVidia ging und dass STMicroelectronics keine Kyros mehr anbietet.
Wer weiß wie schnell und potent die Karten wären, wenn es diese Hersteller alle noch gäbe.
 
Aber recht hast du damit, dass mehr Hersteller nicht schlecht wären. Schade, dass 3dfx damals an nVidia ging und dass STMicroelectronics keine Kyros mehr anbietet.
Wer weiß wie schnell und potent die Karten wären, wenn es diese Hersteller alle noch gäbe.

3dfx nvidia und amd hätte schon gereicht :D

sc59 hatt leider recht :-) da kan man nur treumen
 
Ist so etwas wie die Nvidia TESLA Karten und komplett spieleuntauglich, die haben nicht mal Grafikschnittstellen.
 
wäre durchaus von Vorteil wenn Intel im Grafikkartengeschäft doch noch Fuss fassen würde.
Mit Larrabee hat man es ja versucht, hat man aber verworfen für dieses Teil im Artikel.
Intel baut doch in so ziemlich jede CPU eine GPU ein, wenn man nach der Quantität geht, ist Intel die unangefochtene Nr1 bei den GPUs.
 
Mich würde ja interessieren wie Tauglich die Karten in Sachen Spiele sind, wäre durchaus von Vorteil wenn Intel im Grafikkartengeschäft doch noch Fuss fassen würde.
Dadurch liese sich das Oligopol von NVidia/AMD zugunsten der Kunden aufweichen:)

Mit "geeigneten" Treibern -die es nicht gibt- würden sich die Karten in existierenden Spielen vielleicht irgendwo in der Mittelklasse bewegen.

In Spielen mit optimierter Engine könnten die Karten sehr stark sein und auch massiv für Physikberechnungen genutzt werden aber solche Spiele müssten erstmal entwickelt werden.
 
Ist so etwas wie die Nvidia TESLA Karten und komplett spieleuntauglich, die haben nicht mal Grafikschnittstellen.

Teslas sind afaik 100% spieletauglich, solange die Engine das Bild nur rendern und auf anderem Wege ausgeben lässt. Sinn macht das, gerade in Anbetracht des Preises, natürlich nicht, aber technisch ist es kein Problem. Phis dagegen sind so spieletauglich, wie es ein x86 Cluster nur sein kann: Überhaupt nicht, weil es keinen auch nur halbwegs performanten DirectX-Softwarerenderer gibt.
 
ΔΣΛ;5279256 schrieb:
Mit Larrabee hat man es ja versucht, hat man aber verworfen für dieses Teil im Artikel.
Intel baut doch in so ziemlich jede CPU eine GPU ein, wenn man nach der Quantität geht, ist Intel die unangefochtene Nr1 bei den GPUs.
Aber auch nur nach anzahl verkauften exemplaren, wenn man nach effektiv im einsatz befindlichen exemplaren geht, dann ist Intel wieder hinter NVidia und AMD.

Mit "geeigneten" Treibern -die es nicht gibt- würden sich die Karten in existierenden Spielen vielleicht irgendwo in der Mittelklasse bewegen.

In Spielen mit optimierter Engine könnten die Karten sehr stark sein und auch massiv für Physikberechnungen genutzt werden aber solche Spiele müssten erstmal entwickelt werden.
Gibt es doch, zb Hawken, da soll ja angeblich NVidias zerstörbare Umgebung kommen.

Teslas sind afaik 100% spieletauglich, solange die Engine das Bild nur rendern und auf anderem Wege ausgeben lässt. Sinn macht das, gerade in Anbetracht des Preises, natürlich nicht, aber technisch ist es kein Problem. Phis dagegen sind so spieletauglich, wie es ein x86 Cluster nur sein kann: Überhaupt nicht, weil es keinen auch nur halbwegs performanten DirectX-Softwarerenderer gibt.
Da sehe ich kein al zu grosses problem, Software kann man nachreichen.
 
Aber auch nur nach anzahl verkauften exemplaren, wenn man nach effektiv im einsatz befindlichen exemplaren geht, dann ist Intel wieder hinter NVidia und AMD.
Nein, sind sie auch effektiv. Der Gamer-Bereich ist ein Witz verglichen mit dem Business-Bereich. Zum Beispiel bei den ganzen Office-Rechnern kommen die IGPs auch zum Einsatz.

Da sehe ich kein al zu grosses problem, Software kann man nachreichen.
Klar kann man das machen, bei 20 FPS mit einer Grafik von 2002 oder so. Die Architektur ist dafür einfach nicht geeignet.
 
Teslas sind afaik 100% spieletauglich, solange die Engine das Bild nur rendern und auf anderem Wege ausgeben lässt. Sinn macht das, gerade in Anbetracht des Preises, natürlich nicht, aber technisch ist es kein Problem. Phis dagegen sind so spieletauglich, wie es ein x86 Cluster nur sein kann: Überhaupt nicht, weil es keinen auch nur halbwegs performanten DirectX-Softwarerenderer gibt.
So siehts aus :daumen:


Aber auch nur nach anzahl verkauften exemplaren, wenn man nach effektiv im einsatz befindlichen exemplaren geht, dann ist Intel wieder hinter NVidia und AMD.
Nein, die meisten iGPUs von Intel werden eingesetzt. Nimm mal den Blick weg von den Hardcoregamern.

Gerade im Buisnessbereich hat sich mit SB und nochmals mit IB einiges geändert. Die kleine dGPU für den Multimonitorbetrieb gibt es praktisch gar nicht mehr, und das waren die Volumenmodelle.

Da sehe ich kein al zu grosses problem, Software kann man nachreichen.
Nein kann man nicht, einfach weil die Algorithmen zu ineffizient sind. Das war schon vor dem ganzen Larrabee Projekt eigentlich klar, aber Intel wollte halt mit dem Kopf durch die Wand. Die Geschichte der Computerhardware hat aber eigentlich ausreichend gezeigt, das FFUs sich nicht performant durch Software ersetzen lassen.

Vor allem nicht, wenn man noch auf den Stromverbrauch achten muss. Es geht einfach nicht, da Softwareimplementierungen immer mehr machen müssen, als ne spezialisierte FFU.

Und ja, GPUs sind keine echten FFUs mehr, aber im Vergleich zu einer CPU doch noch verdammt eingeschränkt.
 
Da sehe ich kein al zu grosses problem, Software kann man nachreichen.

Das dachte sich Intel bei Larrabee auch.
Mit 1-2 Jahren zusätzlicher Entwicklungszeit im Rücken kann Daniel Pohl jetzt ein Jahrzehnt alte Spiele (zugegebenermaßen mit perfekter Beleuchtung) flüssig in aktuellen Auflösungen zocken. Und das bei gerade mal 300 W TDP :schief:

Das ist ein derart gigantischer Leistungsunterschied, dass man nicht einmal darüber spekulieren kann, wann spezialisierte Rasterizer einholen könnte, weil man doppelt soweit zurückliegend alle Spiele noch vollständig auf x86 gerendert wurden...
 
Könnte man so eine Karte eigentlich auch zum Rendern nutzen? Ich denke da an Blender, Cinema 4d und co. ICh kenne mich mit der Technik nicht aus, deshalb die Frage.
 
Zurück