• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Intel V8 "Skulltrail"

DerSitzRiese

Software-Overclocker(in)
Hi hat jemand mal was neues zu diesem Baby gehört?
(siehe PCGH Ausgabe: 3/2007 ab Seite 38)
würde mich mal interessieren ob der billiger geworden ist und ob er endlich nen schnelleren Speicher bekommen hat.
Auch würde mich interessieren wie er in Benchmarks (nicht nur Cinebench) abschneidet und wie seine OC-Eigenschaften sind.

ah ich hab grad was gefunden: http://www.motherboards.org/reviews/hardware/1721_1.html
 
Zuletzt bearbeitet:

PCGH_Thilo

Clickbait-Meister
Teammitglied
Leider wenig Neues von uns... Auf der GC habe ich danach gefragt, aber es kam wenig Hilfreiches zurück. Denke mal, dass das Thema "Octa-Core" erstmal brach liegen wird.
 

Anhänge

  • DragonAge2 2011-04-03 21-31-49-58.jpg
    DragonAge2 2011-04-03 21-31-49-58.jpg
    179,6 KB · Aufrufe: 55
  • DragonAge2 2011-04-03 21-31-47-99.jpg
    DragonAge2 2011-04-03 21-31-47-99.jpg
    125,1 KB · Aufrufe: 10
  • DragonAge2 2011-04-04 19-49-33-08.jpg
    DragonAge2 2011-04-04 19-49-33-08.jpg
    828,5 KB · Aufrufe: 11
  • DragonAge2 2011-04-04 20-01-49-22.jpg
    DragonAge2 2011-04-04 20-01-49-22.jpg
    666,2 KB · Aufrufe: 16
  • DragonAge2 2011-04-04 20-00-58-09.jpg
    DragonAge2 2011-04-04 20-00-58-09.jpg
    805,7 KB · Aufrufe: 11
  • DragonAge2 2011-04-04 20-15-04-22.jpg
    DragonAge2 2011-04-04 20-15-04-22.jpg
    405,7 KB · Aufrufe: 9
  • DragonAge2 2011-04-04 19-49-05-16.jpg
    DragonAge2 2011-04-04 19-49-05-16.jpg
    686,1 KB · Aufrufe: 10
  • DragonAge2 2011-04-04 20-11-33-97.jpg
    DragonAge2 2011-04-04 20-11-33-97.jpg
    324,6 KB · Aufrufe: 10
  • DragonAge2 2011-04-04 19-50-47-19.jpg
    DragonAge2 2011-04-04 19-50-47-19.jpg
    461,2 KB · Aufrufe: 9
  • DragonAge2 2011-04-06 23-46-30-22.jpg
    DragonAge2 2011-04-06 23-46-30-22.jpg
    419,2 KB · Aufrufe: 12
  • DragonAge2 2011-04-06 23-58-00-71.jpg
    DragonAge2 2011-04-06 23-58-00-71.jpg
    600,1 KB · Aufrufe: 11
  • DragonAge2 2011-04-07 00-11-11-96.jpg
    DragonAge2 2011-04-07 00-11-11-96.jpg
    562 KB · Aufrufe: 13
  • DragonAge2 2011-04-07 00-13-02-80.jpg
    DragonAge2 2011-04-07 00-13-02-80.jpg
    514,2 KB · Aufrufe: 10
  • DragonAge2 2011-04-06 00-27-01-71.jpg
    DragonAge2 2011-04-06 00-27-01-71.jpg
    515,2 KB · Aufrufe: 13
  • DragonAge2 2011-04-07 00-09-29-16.jpg
    DragonAge2 2011-04-07 00-09-29-16.jpg
    559,9 KB · Aufrufe: 11
  • DragonAge2 2011-04-06 23-55-17-88.jpg
    DragonAge2 2011-04-06 23-55-17-88.jpg
    609,9 KB · Aufrufe: 13
  • DragonAge2 2011-04-07 17-20-59-02.jpg
    DragonAge2 2011-04-07 17-20-59-02.jpg
    342 KB · Aufrufe: 13
  • DragonAge2 2011-04-07 17-15-10-28.jpg
    DragonAge2 2011-04-07 17-15-10-28.jpg
    488,5 KB · Aufrufe: 10
  • DragonAge2 2011-04-07 22-46-24-42.jpg
    DragonAge2 2011-04-07 22-46-24-42.jpg
    322,5 KB · Aufrufe: 57
  • DragonAge2 2011-04-07 23-34-23-77.jpg
    DragonAge2 2011-04-07 23-34-23-77.jpg
    359,3 KB · Aufrufe: 12
  • DragonAge2 2011-04-07 23-15-18-09.jpg
    DragonAge2 2011-04-07 23-15-18-09.jpg
    616,4 KB · Aufrufe: 13
  • DragonAge2 2011-04-07 17-48-37-06.jpg
    DragonAge2 2011-04-07 17-48-37-06.jpg
    523,6 KB · Aufrufe: 12
  • DragonAge2 2011-04-07 23-42-37-92.jpg
    DragonAge2 2011-04-07 23-42-37-92.jpg
    423,5 KB · Aufrufe: 54
  • DragonAge2 2011-04-07 22-53-41-45.jpg
    DragonAge2 2011-04-07 22-53-41-45.jpg
    323,7 KB · Aufrufe: 7

Stefan Payne

Kokü-Junkie (m/w)
Ganz ab davon das Intels 'V8 Plattform' in der aktuellen Form für Enduser absolut unbrauchbar ist.

Warum?
Weil man keine 'normalen' Consumerchipsätze verwendet sondern auf Server-/Workstationchipsätze setzt, womit man auch noch FB-DIMMs an den Hacken hat, was für usn Gamer nur Nachteile bedeutet -> deutlich höhere Latenz, deutlich höhere Preise...

Allerdings sollten wir uns nichts vor machen, denn bei 'normalen' CPUs wie den C2D ist so eine Plattform nicht wirklich zu gebrauchen, der K8 und somit die 4x4/Quadfather Plattform hat da schon gewaltige Vorteile, eben aufgrund des Speichercontrollers...

Damit V8 wirklich was ringt, müsste man den Takt des FSBs drastisch anheben (oder seperate FSBs pro Sockel) und dazu entsprechend schnellen Speicher nutzen...
Ist also nicht soo einfach...
 

INU.ID

Moderator
Teammitglied
Weil man keine 'normalen' Consumerchipsätze verwendet sondern auf Server-/Workstationchipsätze setzt, womit man auch noch FB-DIMMs an den Hacken hat, was für usn Gamer nur Nachteile bedeutet -> deutlich höhere Latenz, deutlich höhere Preise...
Sicher, über die Vor- und Nachteile der Architektur könnte man streiten.

Allerdings sollten wir uns nichts vor machen, denn bei 'normalen' CPUs wie den C2D ist so eine Plattform nicht wirklich zu gebrauchen, der K8 und somit die 4x4/Quadfather Plattform hat da schon gewaltige Vorteile, eben aufgrund des Speichercontrollers...
Also ich kann mich irren, aber unter K8 nannte sich das noch Quad-FX - und trotz IMC lag die Leistung unter der eines Intel Quad-Core, bei gleichzeitig deutlich höherem Stromverbrauch. Und für einen Gamer sind zwei Sockel eh nicht gedacht, auch wenn es einem das Marketing einiger Firmen so suggerieren möchte.

Damit V8 wirklich was ringt, müsste man den Takt des FSBs drastisch anheben (oder seperate FSBs pro Sockel) und dazu entsprechend schnellen Speicher nutzen...
Intels Clarksboro bietet sogar vier 1066MHz FSBs. (der Vorgänger auch schon 2)

MFG INU.ID
 

Stefan Payne

Kokü-Junkie (m/w)
Sicher, über die Vor- und Nachteile der Architektur könnte man streiten.
Nein, denn Intels FSB implementierung ist einfach völlig veraltet, schon das EV6 Protokoll, was AMD beim K7 nutzte, war fortschrittlicher/besser als Intels GTL+ Protokoll, was immernoch auf dem Pentium 1 Bus aufbaut...

Entsprechend gibt es KEINE seperaten Leitungen für den L2 Cacheabgleich (das sogenannte spoofing), das läuft alles über den FSB.

Beim Cohärenten HT Link des K8 hat AMD übrigens seperate Leitungen für den Cacheabgleich implementiert...
Also ich kann mich irren, aber unter K8 nannte sich das noch Quad-FX - und trotz IMC lag die Leistung unter der eines Intel Quad-Core, bei gleichzeitig deutlich höherem Stromverbrauch. Und für einen Gamer sind zwei Sockel eh nicht gedacht, auch wenn es einem das Marketing einiger Firmen so suggerieren möchte.
Und jetzt schau dir mal die Leistungssteigerung von einem Sockel auf 2 an, unter ähnlichen Bedingungen.

Da schauts bei Intel nicht wirklich prickelnd aus, die AMDs skalieren mit höherer Anzahl an Sockeln wesentlich besser.
Während Intels nicht sehr gut skalieren, warum hab ich schon gesagt, je mehr CPUs im System verwendung finden (bei 2 Sockeln mit je 2 "Quad "COres sinds 4 CPUs!), desto schlechter skalieren die Intels, desto mehr kann AMD aufholen, siehst du ja am 4x4, wo AMD doch recht gut mit einem Quad Core mithalten konnte...

Zum 4x4 bleibt noch zu sagen, das es bisher nur ein Board gibt, das auch noch von ASUS ist (die bekanntlich eine etwas höhere Leistungsaufnahme haben als der Rest) und auch noch 2 MCP55 drauf hat, die bekanntlich nicht besonders sparsam sind...

Und da die K10 bald kommen werden, zusammen mit dem RD790 Chipsatz, kann die 4x4 Plattform durchaus interessant werden, wenn die Bretter nicht allzu teuer werden (ich hoffe mal auf ~250).
Intels Clarksboro bietet sogar vier 1066MHz FSBs. (der Vorgänger auch schon 2)
Oh, man bastelt für 'ne Krücke 'ne Krücke...
Und dann tut man noch 64MiB Spoofcache implementieren, damit die NB die Nachteile des FSBs irgendwie ausgleichen kann und auch nochmal ordentlich rumheizen kann, toll...

PS: tippe hier gerad an 'nem 2 Sockel System...
 

INU.ID

Moderator
Teammitglied
Nein, denn Intels FSB implementierung ist einfach völlig veraltet....
Das stand doch gar nicht zur Debatte - da gibts auch keine zwei Meinungen - es ging mir einzig um FB-Dimm als Alternative zu AMDs Lösung (und dessen Vor- und Nachteile)... Nur wenn man sich anschaut das (Barcelona usw mal außen vor) Intels völlig veraltete FSB-CPUs in Sachen Leistung AMDs HT-CPUs (und dessen schnellerer Cache-Anbindung) überlegen ist (oder es zumindest bis zum Barcelona war), dann könnte der Eindruck entstehen das Intel sich was dabei gedacht hat. Wie gesagt, min. bis zum Barcelona-Launch war die schnellste CPU (1-Sockel-System) eine mit nem alten FSB... (das sie im MP nicht so gut skalieren bestreitet ja keiner, aber die schnellere Anbindung ans System bedeutet nicht zwangsläufig das es auch 1:1 in Leistung umgesetzt werden kann)

Oh, man bastelt für 'ne Krücke 'ne Krücke...
Auch hier wollte ich nicht über die Sinnhaftigkeit der FSB-Architektur als solches sinnieren, ich wollte dir lediglich mitteilen das - wie von dir gefordert - pro Sockel ein FSB schon realisiert worden ist.

Da schauts bei Intel nicht wirklich prickelnd aus, die AMDs skalieren mit höherer Anzahl an Sockeln wesentlich besser.
Auch hier ging es mir nur um die Qaud-FX Plattform, welche - wie gesagt - einem "Fuddel-Quad" von Intel unterlegen ist. Deine Äußerung oben lies bei mir den Eindruck entstehen das du meinst AMD würde generell mit zwei Sockeln vorne liegen - und das ist bekanntermaßen nicht so.

PS: tippe hier gerad an 'nem 2 Sockel System...
Schön. :)
 

annihilator71

Kabelverknoter(in)
Na da hats sich SP mal wieder völlig daneben spekuliert - scheint doch ganz heftig zu performen

und immer schön brav den K10 schönreden - wann merken die meisten das der K10 nicht der große wurf wurde denn man erwartet hat ?
 

Anhänge

  • 20190427_020528.jpg
    20190427_020528.jpg
    729,2 KB · Aufrufe: 28
  • 20190428_015732.jpg
    20190428_015732.jpg
    761,3 KB · Aufrufe: 25
  • 20190428_015743.jpg
    20190428_015743.jpg
    691,9 KB · Aufrufe: 23
  • 20190428_015659.jpg
    20190428_015659.jpg
    671,1 KB · Aufrufe: 27
  • 20190428_015722.jpg
    20190428_015722.jpg
    863,7 KB · Aufrufe: 22

GrandAdmiralThrawn

Kabelverknoter(in)
Bah, aber SkullTrail geht mir auch ärger am Wecker. Vielleicht bin ich zu puristisch ausgelegt, aber seit meinen Erfahrungen mitm ASUS P5ND2-SLI Deluxe wird mir einfach schlecht, wenn ich an nVidia Chipsätze und Intel Maschinen denke. Ok, hier ist nur ein kleiner Teil des Chipsatzes von NV, aber ich hab schon wieder so ein ungutes Gefühl. Damals hab ich mein wunderbares Hochleistungs-SLI aufgeben müssen, weil das so ein unerträglicher Haufen Mist war (div. Featuremängel, Instabilität, nie ein Final 1.x BIOS, Rückkehr zu Intel Chipsatz...).

Was ist das eigentlich für ein Pfusch mit den "nForce 100" Chips? Seits SLI quasi "wieder" gibt, wünsche ich mir nichts mehr, als einen reinrassigen Intel Chipsatz, auf dem ich SLI fahren kann, und aus Schluß.

Wie macht nVidia wohl mehr Cash?

Szenario 1, SLI geht nicht am (reinen) Intel Chipsatz:
==
Ich kaufe, da SLI am reinen Intel nicht rennt, nur eine Spitzengraka, sagen wir 8800GTX, und mein Intel Board plus Intel CPU. nVidia hat mir in Endeffekt eine GPU verkauft, da ich den nForce verschmähe.

Szenario 2, SLI geht am (reinen) Intel Chipsatz:
==
Ich kaufe mir zwei von den besten Grakas, um in perfekter Qualität mit FSAA, HDRR und allem was dazugehört zu schwelgen, nVidia hat mir im Endeffekt ZWEI der fast teuersten GPUs verkauft, Intel macht das gleiche Geschäft wie in Szenario 1.

Es wäre toll, wenn mir irgendwann irgendwer wirklich erklären könnte, wieso Intel sich die SLI Lizenz nicht holt. Ist es Intel zu wurscht, oder will nVidia die Lizenz wirklich einfach nicht rausrücken? Kann man den Verkauf an einen bestimmten Kunden am Markt eigentlich einfach verweigern? ggf. über selektive Preispolitik?

Glauben die echt, die können Intel Chipsätze verdrängen? Ich kauf mir zwar keine ATi Grakas, aber viele User werden dann wohl doch einfach Crossfire nutzen statt SLI, und NV geht doppelt baden..

Mich würden die Hintergründe der SLI@Intel Geschichte wirklich interessieren, vielleicht kann das jemand hier eingehender beleuchten? Ich verstehs nämlich nicht...
 

Marbus16

Gesperrt
nVidia will die Lizenz nicht rausrücken.

Sie meinen, sie müssen das Monopol (ohoh, böses wort, da sollte evtl. mal ein Gericht nachhaken :D) bei der SLI-Technologie halten. Werden sie aber nicht bei mir schaffen - ein Chipsatz, der mehr verbraucht als die CPU, kommt bei mir nicht rein.

Hätte auch lieber nen Intel + meine beiden 8600GT's, aber nach deinem kurzen Bericht werd ich mir was anderes ausdenken für einen Zockrechner. Wird dann wohl ne 8800GTX.
 

GrandAdmiralThrawn

Kabelverknoter(in)
Also ich will da jetzt nicht deine Kaufentscheidung beeinflussen, was mir passiert ist, ist vielleicht nicht unbedingt repräsentativ für alle nForce-für-Intel Boards, da dieses spezielle Exemplar besonders schlimm war.

Bei mir wars halt unübertaktbar, instabil, und bis ich Mal geschnallt habe, daß ASPI Treiber (benutz ich für bestimmte CD/DVD Ripper) beim nForce ab dem 3er einfach generell nicht funktionieren, weil nVidia das in seinen Chipsatztreibern ned unterstützt... Pfh, bei jedem Intel Brett klappt das 1A.

Und ASUS hat - das muß man ehrlicherweise dazusagen - auch sein Scherflein beigetragen in meinem Fall. So wie der eine BIOS-Release, nach dem WinXP einfach ned mehr bootete. 100% reproduzierbar. Paar Tage danach ist der Release wortlos von der ASUS Page verschwunden, Docs wurden einfach gelöscht (!). Leider weiß ich die Versionsnummer nicht mehr, aber geil wars!

Ich weiß ja ned, was diese nForce100 Chips sind, oder was sie genau tun, aber mir schmeckt das irgendwie nicht.

Wenn nVidia es schafft, schnellere Chipsätze zu bauen als Intel, dann kaufen die ganzen Ultra-Leistungs-Stabilität-is-wurscht Freaks sowieso nVidia, und sie haben ihre Zielgruppe erobert. Und der Intel User, ders zwar gern schnell hat, dem Stabilität aber alles bedeutet, kann sich dann sein gemütliches 8800er oder 9800er GTX/Ultra SLI auf sein Intel-only X38 Sys stecken. Fertig.

Na, ich verstehs ned. rofl. Diese Politik is mir ein arger Dorn im Auge! :mad:
 

Marbus16

Gesperrt
Nja, hatte das N650SLI-DS4 angedacht, aber soo gefällts mir auch nicht mehr.... Denke mal eher nen Asus P5K-E wiFi (ist mir eh lieber als das nVidia Gedöns), 8800GTX und nen E6850, der hoffentlich die gleiche Taktrate wie mein P4 liefert :D

btw: Zum Thema Politik: Wir haben Schlimmeres hier oben zu erdulden, da is nVidias Produktpolitik noch Kinderkrams gegen :)
 

annihilator71

Kabelverknoter(in)
Bah, aber SkullTrail geht mir auch ärger am Wecker. Vielleicht bin ich zu puristisch ausgelegt, aber seit meinen Erfahrungen mitm ASUS P5ND2-SLI Deluxe wird mir einfach schlecht, wenn ich an nVidia Chipsätze und Intel Maschinen denke. Ok, hier ist nur ein kleiner Teil des Chipsatzes von NV, aber ich hab schon wieder so ein ungutes Gefühl. Damals hab ich mein wunderbares Hochleistungs-SLI aufgeben müssen, weil das so ein unerträglicher Haufen Mist war (div. Featuremängel, Instabilität, nie ein Final 1.x BIOS, Rückkehr zu Intel Chipsatz...).

Was ist das eigentlich für ein Pfusch mit den "nForce 100" Chips? Seits SLI quasi "wieder" gibt, wünsche ich mir nichts mehr, als einen reinrassigen Intel Chipsatz, auf dem ich SLI fahren kann, und aus Schluß.

Wie macht nVidia wohl mehr Cash?

Szenario 1, SLI geht nicht am (reinen) Intel Chipsatz:
==
Ich kaufe, da SLI am reinen Intel nicht rennt, nur eine Spitzengraka, sagen wir 8800GTX, und mein Intel Board plus Intel CPU. nVidia hat mir in Endeffekt eine GPU verkauft, da ich den nForce verschmähe.

Szenario 2, SLI geht am (reinen) Intel Chipsatz:
==
Ich kaufe mir zwei von den besten Grakas, um in perfekter Qualität mit FSAA, HDRR und allem was dazugehört zu schwelgen, nVidia hat mir im Endeffekt ZWEI der fast teuersten GPUs verkauft, Intel macht das gleiche Geschäft wie in Szenario 1.

Es wäre toll, wenn mir irgendwann irgendwer wirklich erklären könnte, wieso Intel sich die SLI Lizenz nicht holt. Ist es Intel zu wurscht, oder will nVidia die Lizenz wirklich einfach nicht rausrücken? Kann man den Verkauf an einen bestimmten Kunden am Markt eigentlich einfach verweigern? ggf. über selektive Preispolitik?

Glauben die echt, die können Intel Chipsätze verdrängen? Ich kauf mir zwar keine ATi Grakas, aber viele User werden dann wohl doch einfach Crossfire nutzen statt SLI, und NV geht doppelt baden..

Mich würden die Hintergründe der SLI@Intel Geschichte wirklich interessieren, vielleicht kann das jemand hier eingehender beleuchten? Ich verstehs nämlich nicht...

genau das ist auch mein einizger grund warum ich mir nur eine Grafikkarte in den PC kaufe - hatte mal ein P5N32 SLI Deluxe mit haufenweise Probleme mit USB und sonstigen unerklärlichen Fehlern die bei keinem anderen PC bei mir auftraten.

SLI ist ja was feines aber ich will auch lieber nen Intel Chipsatz anstatt NVIDIA

Aber die scheinen lieber weniger Grafikkarten verkaufen zu wollen -als das sie endlich mal SLI freigeben, bis Intel in 1-2 Jahren was Eignes bringt und dann wirds für NV eng

AMD hat ATI gekrallt
Intel macht was eignes ............... NV steht alleine da
 
Oben Unten