Umfassende Informationen zu Haswell-E geleaked - Usernews von Skysnake

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Umfassende Informationen zu Haswell-E geleaked - Usernews von Skysnake

Die für ihre Leaks bekannte Webseite vz-zone.com hat eine ganze Reihe von authenthisch wirkenden Präsentationsfolien zur Nachfolger CPU von Ivy-Bridge-E geleaked. Hierdurch erhalten wir nicht nur viele neue Informationen für die für H2 2014 geplanten Haswell-E CPUs, sondern auch eine unerfreuliche Neuigkeit über Ivy-Bridge-E.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Umfassende Informationen zu Haswell-E geleaked - Usernews von Skysnake
 
Zuerst einmal:
Hammergeile News. Also eher weniger inhaltlich, da kannst Du ja aber nichts für, Skysnake. Aber vom Informationsgehalt her, von der Schreibart, von der Länge. Einfach nur super. :daumen:
Solche News wünscht man sich öfter - nicht nur von Dir. :schief:

Nun zu den Ecken udn Kanten, die mir aufgefallen sind:
Bei sollen deutlich größere Speichermengen von 32GB und mehr pro Speicherriegel normal werden.
Das soll sicherlich "Bei DDR4..." heißen, richtig?

Bei IB-E spricht Intel aber "nur" noch von 2x16x oder 4x8x, wobei Gen3 für IB-E Core ix bestätigt werden
Und hier meinst Du nicht IE-E, sondern Haswell-E. Und dann nicht 4x8 sondern nur 3x8.
Man kann sich hier fragen, was mit den restlichen 8-Lanes bei 2x16 oder den restlichen 16-Lanes bei 3x8 passiert, wenn die CPU denn 40 Lanes haben sollte. Werden die 2011-3 Board möglicherweise ne festverlötet "Notfall"-GPU haben, die mit 8-Lanes angebunden wird (und bei 3x8 laufen dann 8 Lanes ins Leere)?

Richtig gut finde ich Deine Recherchen bezüglich PCIe3. Mir war bewußt, das Ivy hier Probleme hat. Das sich dies aber nun bei Haswell fortsetzt und die Hersteller sich gegenseitig die Schuld zuschieben...erschreckend.
Allerdings wird nur Intel und NVidia erwähnt. Wie sieht des denn mit AMD aus?
 
Zuletzt bearbeitet:
Aber wenn es wirklich solche massiven Probleme gibt, warum funktioniert dann PciE3 bei den kleinen Ivy und bereitet den großen solche Schwierigkeiten. Bis Haswell E sollten doch die Probleme noch gelöst werden können.
 
Zuerst einmal:
Hammergeile News. Also eher weniger inhaltlich, da kannst Du ja aber nichts für, Skysnake. Aber vom Informationsgehalt her, von der Schreibart, von der Länge. Einfach nur super. :daumen:
Solche News wünscht man sich öfter - nicht nur von Dir. :schief:
danke
Nun zu den Ecken udn Kanten, die mir aufgefallen sind:
Das soll sicherlich "Bei DDR4..." heißen, richtig?
Ja, damit ist DDR4 gemeint. Da sind eben deutlich größere Speichermengen/DIMM möglich, aber auch nötig, da eben die Merfachbestückung eines Channels wegfällt. Dafür aber eben auch höhere Taktraten ;)

Und hier meinst Du nicht IE-E, sondern Haswell-E. Und dann nicht 4x8 sondern nur 3x8.
Nein, ich meine schon IE-E. Der kann 4x8 und 2x16. Das ist btw auch seltsam, da SB-E eben 2x16x + 1x8x kann, oder eben 5x8x. :ka:

Da wird man wohl schauen müssen, was sich dahinter verbirgt.

Man kann sich hier fragen, was mit den restlichen 8-Lanes bei 2x16 oder den restlichen 16-Lanes bei 3x8 passiert, wenn die CPU denn 40 Lanes haben sollte. Werden die 2011-3 Board möglicherweise ne festverlötet "Notfall"-GPU haben, die mit 8-Lanes angebunden wird (und bei 3x8 laufen dann 8 Lanes ins Leere)?
DAS ist eine verdammt gute Frage! Habe ich mir auch gestellt, und bis auf: "Die sind dann halt tot" ist mir ganz ehrlich gesagt nichts eingefallen, was Intel damit meint. Man wird ja schon einen Grund haben, es eben GENAU SO! und nicht anders zu schreiben. An einen Fehler glaubee ich da auch nicht wirklich.

Eventuell hängt das auch einfach mit den "up to 40" Lanes zusammen :ka:

Ansonsten gibt es halt noch einen Punkt. In einem Gespräch von 2012 mit einem von Intel hatte ich erfahren, das Intel den PCI-E Traffic auch über die Caches laufen lassen kann. Also z.B. Daten kommen über PCI-E rein, und sollen Werte im Hauptspeicher ändern. Wenn die Werte nun im Cache stehen, kann stattdessen auch der Wert direkt im Cache geändert werden, ohne Umweg in den RAM. Das gibt teilweise ziemliche Vorteile bzgl Latenz usw. Intel nutzt das wohl für ihre eigenen Infiniband-Karten usw. Eventuell hängt das damit, und/oder auch mit TB zusammen, den man eben standardmäßig verbaut.

Dafür ist die Informationslage einfach VIEL zu dünn, um da klare Aussagen zu machen. Mehr als ein "hm... das sieht verdammt seltsam aus, da sollte man mal lieber ein Auge drauf halten" kann man nicht machen. Wäre ich nicht schon so ewig an der PCI-E 3.0 Story dran, hätte ich da auch nicht viel mehr drauf gegeben. PCI-E 3.0 macht aber scheinbar echt verdammt viel Probleme.

Richtig gut finde ich Deine Recherchen bezüglich PCIe3. Mir war bewußt, das Ivy hier Probleme hat. Das sich dies aber nun bei Haswell fortsetzt und die Hersteller sich gegenseitig die Schuld zuschieben...erschreckend.
Allerdings wird nur Intel und NVidia erwähnt. Wie sieht des denn mit AMD aus?
Ist auch das Ergebnis von >1 Jahr verschiedensten Herstellern nachrennen, und denen versuchen die aus zu quetschen. Ok, im Prinzip reduziert es sich auf CeBIT+einige Monate Kontakt mit Intel (~20 Mails), aber gut. Über das Thema redet halt scheimbar niemand wirklich gern.

Bzgl AMD:
Das Problem hier ist, dass Sie PCI-E 3.0 anbieten, und das auch in allen Produkten zertifiziert haben. Es scheint hier auch nicht die Probleme wie bei Intel<->nVidia zu geben. Daher kann man dazu nicht wirklich etwas sagen, vor allem nicht, WARUM es da geht, und wo anders nicht. Eventuell liegt es einfach daran, das nVidia die Specs halt ausreizt, die sind halt doch eher bereit, das technisch machbare auszureizen, und AMD halt eher einen etwas größeren Sicherheitspuffer einbaut, und eben nicht alles ausreizt.

Naja, und sonstige Hersteller gibt es nicht wirklich mit PCI-E 3.0 Hardware, vor allem nicht solche, die mir bekannt sind, UND PCI-E 3.0 Produkte auf dem Markt haben. Das Hauptproblem, bzw das, weshalb ich erst die Fährte aufgenommen habe, ist der Tatsache geschuldet, das nVidia halt Tesla und GeForce Karten hat, die die gleichen Chips besitzen, aber einmal PCI-E 3.0 haben, und einmal PCI-E 2.0, also genau umgekehrt zur Situation bei Intel :ugly:

Bei anderen PCI-E 3.0 Herstellern, sofern es Sie gibt, hast du eigentlich nicht die Situation, dass du weist, dass das die gleichen Chips sind, und einmal PCI-E 3.0 geht, und einmal nicht.

Wobei ich sagen muss, über ein paar Ecken wurde mir zugetragen, das es zumindest einen Hersteller noch gibt, der wohl anscheinend Probleme damit hat PCI-E 3.0 ans laufen zu bekommen. Der hat aber halt einfach kein PCI-E 3.0 zertifizieren lassen, sondern lässt es unter 2.0 laufen.... Also quasi wie nVidia, aber weil kein "Consumer"-Produkt mit 3.0 da ist, kann man dem eben nicht auf den Grund gehen. Auch habe ich da keine Möglichkeit die Echtheit der Daten zu überprüfen, und an den Hersteller direkt wenden kannste dir sparen. Ich hab da keinen direkten Kontakt.

PS:
Und bevor jemand nach Quellen/Namen von den Firmen usw frägt. VERGESST ES! Über Quellen redet man nicht... 1. will man die Quellen ja behalten und 2. rutscht vielen einfach etwas raus, was Sie den Job kosten kann.... Und da ich sowas provoziere, könnte ich das nie mit meinem Gewissen vereinbaren, wenn dann wegen mir jemand seinen Job verliert!

Also fragt bitte erst gar nicht danach.

@Hanfi:
Sehr gute Frage.

Man muss sich aber mal vor Augen führen, dass z.B. IB nur 16 Lanes hat. IB-E hat aber 40! Lanes. Zudem ist IB "nur" ein 1155 "pin" Package, und SB-E/IB-E ein 2011 "Pin" Package. Du hast also viel größere Wege auf dem großen Package, viel mehr Leitungen zu legen, der DIE verbaucht mehr, braucht also mehr Strom-Pins, du hast ein Quad-DDR-Interface, statt nur einem Dual-DDR-Interface, und dann hast du bei SB-E/IB-E eben auch noch QPI-Links, die du AUCH noch raus führen musst.

Das macht die ganze Sache halt EXTREM! schwierig. Son Package zu designen ist kein Kindergeburtstag... Das kann also durchaus den Rückschritt bei Haswell-E erklären. Man sieht einfach ein, das es nicht geht, bzw nur mit extremem Aufwand.

Was mich allerdings auch sehr grübeln lässt ist, das man es ja bei IB-E scheinbar gebacken bekommen hat. :ka:

Haswell-E bringt allerdings DDR4 UND! die Spannungswandler AUF der CPU mit. Eventuell geht sich das dann wieder einfach nicht aus. Also einfach weil das Packagedesign noch komplexer wird.

Es kann also entweder reine Vorsicht sein, oder aber auch schlicht die Erkenntnis, das man es nur sehr schwer gebacken bekommt, und daher einschränkt/nur bei sehr teuren CPUs voll ausbaut.

Eigentlich wäre ich jetzt wieder zu meinen Intel-Kontakten gedackelt, und hätte sie darauf angehauen, und gefragt, ob es denn nun ein Statement von Ihnen dazu gibt. Auf Grund der Vergangenheit habe ich es mir jetzt aber gespart, zumal ich Intel schon mehrfach gesagt habe, das ich die Story in der Form bringen werde bzgl SB-E und den Problemen, und ich daher ein Statement von Ihnen gern hätte. Wie gesagt kam da aber nichts. Mehr kann ich nicht tun, und irgendwann muss es dann halt auch mal raus gehen können...

Eventuell will sich Intel ja jetzt endlich mal dazu äußern, falls die bekannten Redaktionen das aufgreifen sollten.

Und wenns nur ein Dementi ist, dann könnte man das endlich abhacken, und hinge nicht mehr so in der Luft, und ich wüsste auch, was ich von Firma X zu halten hätte. Die Antwort würde ich demjenigen nämlich dann auch unter die Nase reiben ;)
 
Zuletzt bearbeitet:
Bzgl AMD:
Das Problem hier ist, dass Sie PCI-E 3.0 anbieten, und das auch in allen Produkten zertifiziert haben. Es scheint hier auch nicht die Probleme wie bei Intel<->nVidia zu geben. Daher kann man dazu nicht wirklich etwas sagen, vor allem nicht, WARUM es da geht, und wo anders nicht. Eventuell liegt es einfach daran, das nVidia die Specs halt ausreizt, die sind halt doch eher bereit, das technisch machbare auszureizen, und AMD halt eher einen etwas größeren Sicherheitspuffer einbaut, und eben nicht alles ausreizt.

Naja, und sonstige Hersteller gibt es nicht wirklich mit PCI-E 3.0 Hardware, vor allem nicht solche, die mir bekannt sind, UND PCI-E 3.0 Produkte auf dem Markt haben. Das Hauptproblem, bzw das, weshalb ich erst die Fährte aufgenommen habe, ist der Tatsache geschuldet, das nVidia halt Tesla und GeForce Karten hat, die die gleichen Chips besitzen, aber einmal PCI-E 3.0 haben, und einmal PCI-E 2.0, also genau umgekehrt zur Situation bei Intel :ugly:

Bei anderen PCI-E 3.0 Herstellern, sofern es Sie gibt, hast du eigentlich nicht die Situation, dass du weist, dass das die gleichen Chips sind, und einmal PCI-E 3.0 geht, und einmal nicht.

Wobei ich sagen muss, über ein paar Ecken wurde mir zugetragen, das es zumindest einen Hersteller noch gibt, der wohl anscheinend Probleme damit hat PCI-E 3.0 ans laufen zu bekommen. Der hat aber halt einfach kein PCI-E 3.0 zertifizieren lassen, sondern lässt es unter 2.0 laufen.... Also quasi wie nVidia, aber weil kein "Consumer"-Produkt mit 3.0 da ist, kann man dem eben nicht auf den Grund gehen. Auch habe ich da keine Möglichkeit die Echtheit der Daten zu überprüfen, und an den Hersteller direkt wenden kannste dir sparen. Ich hab da keinen direkten Kontakt.
Also ich persönlich glaube ja das sich Nvidia wie, bei DX11.1 einfach nicht 100% an die Specs gehalten hat. Das AMD auf Nummer sicher geht kann ich mir auch gut vorstellen.
 
Nein, ich meine schon IE-E. Der kann 4x8 und 2x16. Das ist btw auch seltsam, da SB-E eben 2x16x + 1x8x kann, oder eben 5x8x. :ka:
Okay, aber dann wird die ganze Sache ja noch verworrender:
Für Haswell-E:
Bild 1: Up to 4dGFX cards
Bild 2: Up to 40 Lanes, 2x16+1x8 or 3x8
Bild 4: widerspricht Bild 3 mit nur 2x16 (+1x8 fehlt!) or 3x8

Also SB-E nutzt die 40 Lanes voll aus.
IB-E nutzt aber, egel in welcher Konfiguration nur 32 Lanes, hat aber auch 40. Laufen die restlichen 8 hier auch ins Leere?

Bei Haswell-E gehen 4 dGFX wohl nur mit 3x8 + die 8 Lanes der PCH.
Es bleibt aber die Unsicherheit ob nun 2x16 oder 2x16+1x8 gilt. Ich tippe hier eher auf ersteres, würde es doch bedeuten, das Haswell-E wie IB-E egal in welcher Konfig nur 32 Lanes verfügbar macht und 8 ins Leere laufen.
Warum auch immer.

Also ich persönlich glaube ja das sich Nvidia wie, bei DX11.1 einfach nicht 100% an die Specs gehalten hat. Das AMD auf Nummer sicher geht kann ich mir auch gut vorstellen.
Etwas, was ich bis heute nicht verstehe. Warum zum Teufel verweigert sich NVidia den DX11.1-Specs? Ihre Ausreden kenn ich.
Aber ganz ehrlich, das sind Verkaufsargumente und wenn ich den Preisvergleich hier bei PCGH zum Kauf einer neuen GraKa nutze, sind die ersten beiden Klicks "PCIe3.0" (auch wenn man den Unterschied zu PCIe2 noch nicht merkt) und "DX11.1" und schon fallen alle NVidia-Karten raus. Aber ich weiß wenigstens, das PCIe3 funktioniert und die neusten DX-Funktionen unterstützt werden. Das kann meiner Meinung nach NVidia mit PhysX oder 3D-Vision (oder wie auch immer das heißt) nicht wieder aufwiegen zumal gerade bei dem 3D-Gedöns weitere Anschaffungskosten anfallen (entsprechender Monitor plus Brille).
Ich finde es einerseits dreist, das NVidia hier die Specs quasi ignoriert, andererseits kann ich es aber auch nicht glauben, das NVidia den Marketingeffekt von DX11.1 ignorieren kann.
 
Zuletzt bearbeitet:
Ja, das könnte man durchaus denken, da IB-E aber auf SB-E Boards laufen soll, wird wohl deren Konfiguration hoffentlich auch gehen :ugly:

Eventuell läuft es dann aber nicht mehr alles mit PCI-E 3.0 :ka:

Das wäre eine Erklärung, die mir GERADE nach deiner Zusammenfassung eingefallen ist. Thx für den Gedankenanstupser :daumen:

Bei Haswell würden wohl wirklich 3x CPU und 1x Chipsatz für die 4 GPUs benötigt.

Vielleicht will PCGH ja mal klären, was mit den restlichen PCI-E Lanes passiert :daumen: Ich denke die haben mehr Chance Intel zu einer Aussage zu bewegen als ich

PS:
Ja, die ganze Geschichte ist ECHT EXTREM! verwirrend, und das praktisch seid erscheinen von SB-E....

Und das halt ALLE! Schweigen, macht die ganze Sache noch viel unlogischer und undurchsichtiger... Jeder macht halt die Augen zu...

Irgendwie habe ich da immer folgendes Bild im Kopf: "x Kinder, die T-Shirts von verschiedenen Herstellern tragen, und vor einer Bombe stehen, und sich die Hände vor die Augen halten..." Ich seh es nicht, also ist es auch nicht da :ugly:
 
wie "alt" sind denn die Folien? Denn auf Folie 4 steht bei Haswell unter Socket LGA 1155, was aber nicht stimmt ;)
 
Die Neusten und Umfangreichsten, die wir haben.

Und da eben von VR-Zone, als qualitativ gut einzuordnen.

Bis auf die Sache mit S1155 und dem fehlen von AVX2 gibts eigentlich keine Indizien.

Ich hab mir die Folien auch relativ genau angeschauen. Es gibt nicht wirklich anzeichen dafür, dass sie nachbearbeitet wurden. Zumindest sind mir! keine Aufgefallen. Jeder kann sich da aber nach Herzenslust austoben :daumen:

EDIT:
X-CosmicBlue
Ich hab mir das nochmal angeschaut mit deiner Idee im Hintergrund.

Das macht wirklich Sinn, das man eben nur von PCI-E 3.0 Lanes redet, und alle anderen einfach unter den Tisch fallen lässt.

Es steht ja expliziet da:
xy of Gen 3 on processor
Es wird also expliziet NICHT von PCI-E 2.0 Lanes gesprochen, die von der CPU kommen.

Das würde dann also folgendes bedeuten

SB-E:

  • 40 PCI-E Lanes
  • 2x16x + 1x8x oder 1x16x + 3x8x oder 5x8x usw.
  • PCI-E 3.0 auf alle Lanes für Xeons PCI-E 2.0 für Desktop
IB-E (NUR! Desktop)


  • 40 PCI-E Lanes
  • 2x16x PCI-E 3.0 oder 4x8x PCI-E 3.0 -> 4/8 PCI-E Controllerports der CPU sind PCI-E 3.0 fähig 1/2 nur PCI-E 2.0
  • CPU liefert PCI-E 3.0 und 2.0 Lanes anscheinend. Für Server sicherlich alles 3.0er
Haswell-E (NUR! Desktop)

  • Up to 40 PCI-E Lanes
  • 2x16x PCI-E 3.0 oder 3x8x PCI-E 3.0 -> 4/8 PCI-E Controllerports der CPU sind PCI-E 3.0 fähig, 1/2 sind das aber nur in Kombination mit dem anderen und fallen ansonsten auf PCI-E 2.0 zurück, oder sind eventuel GAR NICHT nutzbar. Eventuell daher auch das "Up to", da man eben nur 40 Lanes hat, wenn man einen Ports als 16x laufen lässt, aber nicht mehr, wenn man ihn als 8x laufen lässt.
  • Sowohl PCI-E 3.0 als auch PCI-E 2.0 Ports für den Desktop. Für Server eventuell alle 3.0, und/oder weniger Restriktionen.
EDIT:
Ich hab btw die Folie wieder gefunden, die ich gesucht habe :D


http://pics.computerbase.de/3/7/8/6/1/9_m.png
Da steht:
Up to 40 Lanes of PCI Express interconnect for general purpose PCI Express devices at PCI Express 3.0 speed that are configurable for up to 10 independent ports.


Also das was ich auch in Erinnerung hatte, das eben die Granularität eigentlich 4x ist der PCI-E Controller, von MB-Herstellern kommt aber die 8x Aussage teils. :ka:

[/quote]
 
Zuletzt bearbeitet:
@Skysnake: sehr schöne News.

@hanfi104: Zuerst dachte ich auch gleich an Nvidia, aber inzwischen glaube ich, das Intel hier der Schuldige ist. Denn AMD Grafikkarten heben den PCI-E 3.0 Support, bei den CPUs jedoch nicht. Daraus schliesse ich, das die Anforderungen an den CPU seitigem Controller einiges höher sind. Wen nun die vom Skysnake angesprochene "offenheit" der PCI-E Spezifikationen noch hinzukommt, dann können wir den Standard 3.0 vergessen und gleich auf 3.1 warten.
 
Zuerst dachte ich auch gleich an Nvidia, aber inzwischen glaube ich, das Intel hier der Schuldige ist. Denn AMD Grafikkarten heben den PCI-E 3.0 Support, bei den CPUs jedoch nicht. Daraus schliesse ich, das die Anforderungen an den CPU seitigem Controller einiges höher sind. Wen nun die vom Skysnake angesprochene "offenheit" der PCI-E Spezifikationen noch hinzukommt, dann können wir den Standard 3.0 vergessen und gleich auf 3.1 warten.
Interessanter Gedanke. Aber:
PCIe 3.0 läuft mit IB (soweit ich weiß mit allen problemlos...wobei, es gab doch mal Gerüchte, das die i3-Modelle keinen PCIe3.0-Support haben sollten, weiß garnicht, wie das jetzt geworden ist).
Nur mit SB-E und IB-E eben nicht.
Das sieht in meinen Augen so aus, als habe Intel bei den -E-Modellen was am PCIe-Interface geändert, ergo wäre es ein Intel-Fehler.
Aber dann dürften AMD-GraKas nicht problemloser als NVidia-Karten sein... :ka:
Naja, das macht die Sache doch auch gerade mysteriös und spannend und somit für uns interessant :D
 
Zuletzt bearbeitet:
Und genau deswegen habe ich mich jetzt durchgerungen das alles mal in einern Artikel zu packen, und einfach zu schauen, ob PCGH es bringt oder nicht. Ich selbst bin da einfach nicht mehr weiter gekommen :(

PS:
Siehe meinen EDIT weiter vorne bitte.
 
Edit gelesen, ein "/quote" zuviel am Ende :P
Aber das wäre ne Erklärung, wobei ich merke, das Du deutlich tiefer drin steckst in der Materie, als ich: Ich kann mit Begriffen wie "Granularität" nichts anfangen und wie sich die PCIe-Controllerports auf die Lanes auswirken/aufteilen weiß ich auch nicht, was das 4/8 und 1/2 bedeutet weiß ich also auch nicht :schief:
Wenn es heißt "configurable for up to 10 independent ports", müßten 8 (nicht "4" von "4/8", wenn das "/" für "oder" steht) PCIe 3.0 liefern und 2 (nicht "1" von "1/2", wenn das "/" für "oder" steht) "nur" PCIe 2, richtig? Das heißt, 1 Port bedient 4 Lanes?
 
Zuletzt bearbeitet:
Naja, und sonstige Hersteller gibt es nicht wirklich mit PCI-E 3.0 Hardware, vor allem nicht solche, die mir bekannt sind, UND PCI-E 3.0 Produkte auf dem Markt haben.
LSI?

Zu DDR4:
Das heißt, es gibt pro CPU nur noch 4 RAM Slots?

Wird es für non-ECC RDIMM überhaupt einen Einsatzbereich geben? Welchen? Ich kann mir weder Gaming PCs noch Server vorstellen.
 
Sehr guter Artikel und interessante News. :daumen:
Dass Intel anfägt Lanes einzusparen ist schon dreist. :(
 
Zu DDR4:
Das heißt, es gibt pro CPU nur noch 4 RAM Slots?

Wird es für non-ECC RDIMM überhaupt einen Einsatzbereich geben? Welchen? Ich kann mir weder Gaming PCs noch Server vorstellen.
Ja, sieht so aus, das es auch im Hight-End-Bereich dann nur noch 4 RAM-Bänke gibt.

Und wenn das so kommt, dann hast Du Deinen Einsatzbereich für non-ECC RDIMMs :ugly:
Aber zur Zeit sind non-ECC-Module bei RDIMMs echt ne Seltenheit.
Man muß auch bedenken, das RDIMMs meistens Single-sided sind. Die Kapazität der einzelen Chips muß also echt gewaltig ansteigen mit DDR4.
Außerdem haben RDIMMs eine um einen Taktzyklus hörere Latenz (weil die Signale erstmal durch die Register-Chips müssen) und ebenfalls einen leicht höheren Stromverbrauch gegenüber UDIMMs.
Zudem kann man RDIMMs und UDIMMs nicht gleichzeitg betreiben (so wie man auch DDR1 und DDR2 oder DDR2 und DDR3 nicht gleichzeitig betreiben kann, auch wenn das MoBo für beides Bänke anbietet), auch wenn Haswell-E beides unterstützen soll.
 
Edit gelesen, ein "/quote" zuviel am Ende :P
Aber das wäre ne Erklärung, wobei ich merke, das Du deutlich tiefer drin steckst in der Materie, als ich: Ich kann mit Begriffen wie "Granularität" nichts anfangen und wie sich die PCIe-Controllerports auf die Lanes auswirken/aufteilen weiß ich auch nicht, was das 4/8 und 1/2 bedeutet weiß ich also auch nicht :schief:
Wenn es heißt "configurable for up to 10 independent ports", müßten 8 (nicht "4" von "4/8", wenn das "/" für "oder" steht) PCIe 3.0 liefern und 2 (nicht "1" von "1/2", wenn das "/" für "oder" steht) "nur" PCIe 2, richtig? Das heißt, 1 Port bedient 4 Lanes?
Ähm ja genau.

Die Granularität gibt an, wie viele Lanes "zusammengebunden" sind, also nicht wirklich trennbar an einem Controller hängen. Und das sind eben entweder 4 oder 8 Lanes.

Für einen 1x Slot "verbrauchst" du also dann 4/8 komplette Lanes, so lange du dazwischen nicht einen Switch packst, der dann wiederum die Lanes weiter aufteilen kann.

LSI?

Zu DDR4:
Das heißt, es gibt pro CPU nur noch 4 RAM Slots?

Wird es für non-ECC RDIMM überhaupt einen Einsatzbereich geben? Welchen? Ich kann mir weder Gaming PCs noch Server vorstellen.
Genau.

Die breite der Interfaces gibt die Anzahl der Slots an.

Eventuell gibt es mal noch extra Chips, die das wieder aufheben, aber eigentlich ist es nicht! vorgesehen. Zumindest wäre mir nichts bekannt. Gibt aber immer wieder Speziallösungen in diesem Bereich. Siehe Westmere-EX
 
Aber für den Gaming PC reichen doch immer noch 4x16GB UDIMM und für Workstation bzw. Server dann ECC RDIMMs.
Wann nimmt man aber non-ECC RDIMMs?
 
Wenn man viel Speicher will, aber auf ECC verzichten kann, und deswegen die "billige" Consumer-Platform nutzt ;)
 
Zurück