Intel Broadwell-EP: Aufgetauchte Folien zeigen bis zu 18 CPU-Kerne - Weitere Details zu Haswell-EP

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Broadwell-EP: Aufgetauchte Folien zeigen bis zu 18 CPU-Kerne - Weitere Details zu Haswell-EP

Auf der englischen VR-Zone wurden einige Folien zum Haswell-EP-Nachfolger in Form von Broadwell-EP veröffentlicht, die scheinbar von Intel stammen. Darauf sind die ersten Spezifikationen zu den CPUs enthalten, die mit bis zu 18 Kernen bei einer TDP von 160 Watt daherkommen sollen. Weitere Details gibt es zu der kommenden Mikroarchitektur Haswell-EP.

[size=-2]Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und NICHT im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt. Sollten Sie Fehler in einer News finden, schicken Sie diese bitte an online@pcgameshardware.de mit einem aussagekräftigen Betreff.[/size]


lastpost-right.png
Zurück zum Artikel: Intel Broadwell-EP: Aufgetauchte Folien zeigen bis zu 18 CPU-Kerne - Weitere Details zu Haswell-EP
 
Wenn die EPs nicht so Sch*** teuer wären... :D

Was die erhöhte TDP angeht: Ich tippe eher darauf, dass auch hier die Spannungsregulation unter den IHS gewandert ist und die 10W mehr eher daher kommen als von den Zusatzkernen - so wie es bei Ivy-E zu Haswell-E auch 10W mehr werden und wie es von den Desktop Ivys zu ihren Haswell-Pendants auch von 77 auf 85W raufgegangen ist iirc.
 
Gibt es wirklich Anwendungen für Normalsterbliche, die von 36 Threads profitieren würden?
Mal davon abgesehen, dass diese CPUs tausende von Euro kosten :D
 
Ja wenn du z.B. öfters Videos bearbeitest mit z.B. Adobe Premiere Pro oder so, die Kerne bringen dann zwar nicht stehts immer die gleiche Mehrleistungs sondern das ganze flacht etwas schneller ab aber Mehrgewinn ist dennoch vorhanden.

Viele hier im Forum hantieren auch mit Virtualisierungen, da bringen mehr kerne auch was.

Aber nur für´s zocken absoluter Wahnsinn aber trotzdem einfach interessant :-D
 
Gibt es wirklich Anwendungen für Normalsterbliche, die von 36 Threads profitieren würden?

Sicher. Wenn ich so ne CPU hätte müsste ich auf die x.264_64.exe vielleicht statt 3 Tagen nur noch einen Tag warten.
Je nachdem was man so macht kann man nicht genug Threads haben - ich kann auch 64 Threads voll auslasten wenns sein muss - da das bei einem Clip sehr ineffizient wird macht man eben 4 Clips parallel mit jeweils 16 Threads... :haha:

Aber ernsthaft, lohnen tut sich das natürlich nicht (rentabel ist für mich auch die S2011er Plattform nicht im Geringsten, ist eben nur das teure Hobby...). ;)
 
Artikel schrieb:
Haswell-EP mit bis zu 35 MByte und Broadwell-EP mit bis zu 45 MByte L3-Cache erscheinen werde.
Ich würde echt gerne wissen, unabhängig von der Kernzahl dieser CPU's, wie sich so viel Cache auf Spiele auswirkt, es gibt ja Spiele die CPU optimiert sind, die über mehr Cache nicht meckern würden.
 
Kein Spieleentwickler geht davon aus, dass die CPU seiner Kundschaft über 45MB Cache verfügt. :ugly:

Entsprechend dürfte der Leistungszuwachs eines so großen L3 Caches in Spielen wenn man von zufälligen Synergien man absieht gleich Null sein. Auch beispielsweise der Sprung von 8 auf 12 MB Cache (2600K --> 3930K) bringt bereits keine Mehrleistung, der Sprung auf 30, 40 MB bringt da sicherlich erst recht nichts mehr.
 
Ja wenn du z.B. öfters Videos bearbeitest mit z.B. Adobe Premiere Pro oder so, die Kerne bringen dann zwar nicht stehts immer die gleiche Mehrleistungs sondern das ganze flacht etwas schneller ab aber Mehrgewinn ist dennoch vorhanden.

Viele hier im Forum hantieren auch mit Virtualisierungen, da bringen mehr kerne auch was.

Aber nur für´s zocken absoluter Wahnsinn aber trotzdem einfach interessant :-D

Premiere profitiert das nicht ganz so stark wie After Effects, wenn der Takt Stimmt wäre Multithreaded Rendering tatsächlich mal lohnenswert zu aktivieren.

Abgesehen vom Adobe Video zeugs profitiert so ziemlich jeder CPU basierte 3D renderer (bis auf ein paar wenige ausnahmen die nicht massive multithreaded sind). Also jeder C4D, Max, Maya, Lightwave, Rhino usw. usw. user kann davon sehr profitieren da man mit jeder CPU generation an neue Grenzen kommt, dass wird solange weitergehen bis die Geschwindigkeit an einem Punkt angekommen ist wo ein Upgrade einfach kaum merkliche Unterschiede mehr macht und wir in Echtzeit rendern.
Also ein Stadium wo die standard Desktop Anwendungen seit längerem angekommen sind.
 
Wenn die EPs nicht so Sch*** teuer wären... :D

Was die erhöhte TDP angeht: Ich tippe eher darauf, dass auch hier die Spannungsregulation unter den IHS gewandert ist und die 10W mehr eher daher kommen als von den Zusatzkernen - so wie es bei Ivy-E zu Haswell-E auch 10W mehr werden und wie es von den Desktop Ivys zu ihren Haswell-Pendants auch von 77 auf 85W raufgegangen ist iirc.

Die kommt aber von der stärkeren IGP und nicht von den Spannungswandlern.
 
Die kommt aber von der stärkeren IGP und nicht von den Spannungswandlern.

Ich dachte beim Chip selbst (also Cores+IGP) wäre man bestrebt gewesen die aktuelle TDP-Klasse zu halten und nur die nun integrierte Spannungsversorgung hätte ein paar Watt mehr rausgedrückt (immerhin bei den S2011-3ern gibts ja auch keine IGP) - kann aber auch eine Mischung aus beiden sein.
 
Ich hatte das Computer Base und später auch bei PCGH gelesen dass die stärkere IGP die TDP im Vergleich zu Ivy angehoben hat.
Getestet habe ich das aber nicht.
Aber dass Cache sehr viel Energie kostet ist ja auch klar.
Und wenn die da 45MB Cache einbauen dann schlucken die schon gut Strom. So ist das nicht.
Nimmt ja auch eine Menge Platz auf den Die weg.

Allerdings frage ich mich wohin die Reise geht.
Intel redet immer davon effizienter zu werden aber die TDP Klassen für die High End Modelle scheinen nur noch eine Richtung zu kennen. Nach oben. :(
 
So lange die Leistung bedeutend stärker steigt als die TDP kann ich zumindest im High-End Sektor damit leben (meine CPU bewegt sich auch zwischen 170 und 180W... das geht noch angenehm leise einen 60-70€-Kühler vorausgesetzt).
Irgendwo müssen da aber sicherlich Grenzen sein, bisher hab ich die bei 150W angenommen bis AMD seine 5GHz-Techdemo da rausgehauen hat die über 200W verbrät. Ich hoffe mal das blüht uns nicht bei intel auch irgendwann. :D
 
AMD hat gezeigt dass auch über 200 Watt TDP drin sind. :D
Aber wie willst du das dann kühlen? Ohne WaKü geht dann nichts mehr und wie willst du den OEM Anbietern wie Dell oder HP erklären dass sie die Fertig System mit einer WaKü ausliefern müssen?

160 Watt ist schon eine Hausnummer. Bisher sind es 130 Watt im Desktop und 150 Watt Server.
Ich habe keine Ahnung wo Intel die Grenzen ziehen will aber ewig ausufern können sie das nicht.
Ich weiß ja noch wie schwer es war den 3930k im Zaum zu halten. :(
Wenn ich mir z.B jetzt vorstelle nächstes Jahr einen Haswell 8 Core zu kaufen der dann 150 Watt TDP hat dann kann ich das mit einer leisen Kühlung vergessen oder ich muss wieder auf WaKü umsteigen und ich habe keine Lust auf WaKü.
Nicht dafür. :daumen2:
 
Sehr schön! Fragt sich nur wie viele Kerne die Desktop Ableger sehen werden, vermutlich nur 8...

Kein Spieleentwickler geht davon aus, dass die CPU seiner Kundschaft über 45MB Cache verfügt.

Na ja, die Xbox One hat ja immerhin 32MiB eSRAM und wenn man davon ausgeht das eine gewisse Überkapazität für Multitasking usw. nicht schadet...

Der Cache eines Broadwell ist dabei allerdings wohl sehr viel schneller als der eSRAM einer Xbox One, gleichzeitig ist auch der normale Arbeitsspeicher sehr viel schneller.

Irgendwo müssen da aber sicherlich Grenzen sein, bisher hab ich die bei 150W angenommen bis AMD seine 5GHz-Techdemo da rausgehauen hat die über 200W verbrät. Ich hoffe mal das blüht uns nicht bei intel auch irgendwann.

Mit LuKü und sinnvollem Aufwand kann man mindestens 350W bändigen, das haben diverse GraKas schon bewiesen. Hier ist also noch sehr, sehr viel Luft nach oben offen.

Mit WaKü sollten mehr als 500W drinnen sein, mit einer integrierten Flüssigkeitskühlung auf dem Chip über 1000W. Und das sind sehr konservative Schätzungen.

Wenn man dafür auch entsprechend viel Rechenleistung bekommt ist meiner Meinung nach jede TDP zu rechtfertigen.

Aber wie willst du das dann kühlen? Ohne WaKü geht dann nichts mehr und wie willst du den OEM Anbietern wie Dell oder HP erklären dass sie die Fertig System mit einer WaKü ausliefern müssen?

Dell liefert heute schon etliche Systeme mit Kompakt-WaKü aus und wir reden hier ja nicht von normalen PC Prozessoren sondern von Prozessoren die in High-End Workstations, High-End PCs und Servern eingesetzt werden sollen, bei Servern liegen fortschrittliche Kühlmethoden sowieso im Trend.
 
Wenn man dafür auch entsprechend viel Rechenleistung bekommt ist meiner Meinung nach jede TDP zu rechtfertigen.

Und dieses denken ist mMn. genau falsch. Es sollte eine Grenze geben und nicht immer mehr, mehr, mehr... Das sieht man schon an GarKas. TDP von >200 ist schon fast selbstverständlich. Wenn es so weiter mit der TDP geht dann braucht man bald ein eigenes mini Kraftwerk wenn man ein PC kauft :D

Die Spiele/Programme-Entwickler sollen ihre Programme besser und effizienter programmieren und nicht die Hardwäre immer zu mehr Leistung zwingen nur weil sie zu faul sind genauer zu arbeiten.

Bei den Autos sieht man schon was alles möglich ist wenn sich mehr mühe bei der Planung/Entwicklung gibt.
Früher hat ein 2.0L Motor gut und gerne sich 15l Benzin gegönnt und dabei 75 PS rausgequetscht und heute kommen die gleichen Motoren mit 7L Super aus und bringen locker 150PS.
 
Du musst aber erstens sehen in welchem Bereich wir uns bewegen (ein HaswellEP genau wie 250W-Grafikkarten sind kein 2.0L Motor sondern ein 8,4L Biturbo mit 800PS, da ist der Spritverbrauch auch egal...) und zweitens wo die Grenzen des technisch machbaren und wirtschaftlich verkaufbaren sind.

Klar kann man eine Grafikkarte entwickeln, die die gleiche Leistung wie eine 780Ti mit nur 150 statt 250W bringt - nur müsste der DIE dafür noch viel größer werden um diese Effizienz zu erreichen und versuch du mal eine Karte zu verkaufen (ich nenne sie mal GTX780TI Green Edition), die genauso schnell wie eine normale 780Ti ist aber das 5-fache kostet weil sie 100W weniger verbraucht... dafür ist der Strom zu billig. Und zu sagen "über 100W verkaufen wir nicht" wenn die Nachfrage besteht ist wirtschaftlicher Selbstmord, der Konkurrent lacht sich schlapp.

Auf deine Autos übertragen - kein Mensch kauft 3L-Autos (so gesehen beim Lupo 3L der wegen mangelnder Nachfrage eingestellt wurde, die Leute kauften lieber den 6L-Lupo für 1000€ weniger) so lange der Sprit so billig ist. ;)
 
Zuletzt bearbeitet:
Klar kann man eine Grafikkarte entwickeln, die die gleiche Leistung wie eine 780Ti mit nur 150 statt 250W bringt - nur müsste der DIE dafür noch viel größer werden um diese Effizienz zu erreichen und versuch du mal eine Karte zu verkaufen (ich nenne sie mal GTX780TI Green Edition), die genauso schnell wie eine normale 780Ti ist aber das 5-fache kostet weil sie 100W weniger verbraucht... dafür ist der Strom zu billig. Und zu sagen "über 100W verkaufen wir nicht" wenn die Nachfrage besteht ist wirtschaftlicher Selbstmord, der Konkurrent lacht sich schlapp.

Ich habe mich mehr auf die Software bezogen und nicht auf die Hardware

Die Spiele/Programme-Entwickler sollen ihre Programme besser und effizienter programmieren und nicht die Hardware immer zu mehr Leistung zwingen nur weil sie zu faul sind genauer zu arbeiten.

Ich habe nichts gegen einen 8,4L Biturbo mit 800PS (GTX 780 TI/R9 290X) nur das Problem das in 3-4 Jahren dieser 8,4L Biturbo in der Computerindustrie zu einem Polo wird (was die Leistung betrift) aber der Hunger bleibt bei einem 8,4L Biturbo ;P

Evtl. ist der Vergleich zu den Autos nicht so glücklich gewählt ;)

Dennoch wer weiß was sich die EU in ein paar Jahren sich ausdenkt um CO2 zu sparen :D (PC mit max Leistung von 500W?)

EU verbietet stromfressende Staubsauger - Wirtschaft - Süddeutsche.de
 
Zuletzt bearbeitet:
Ich habe mich mehr auf die Software bezogen und nicht auf die Hardware

In gewisser Weise gilt da der gleiche wirtschaftliche Ansatz... du willst keine 100.000€ mehr in die Programmierung stecken um die Hardware 20% besser auszunutzen weil es einfach nicht genug Kunden gibt die sagen "hey das ist super optimiert das kaufe deswegen!" :D

Man nimmt den Mehraufwand da einfach kaum mehr ein deswegen werden so viele billig programmierte Spiele auf den Markt geworfen. :(
 
Bei den Autos sieht man schon was alles möglich ist wenn sich mehr mühe bei der Planung/Entwicklung gibt.
Früher hat ein 2.0L Motor gut und gerne sich 15l Benzin gegönnt und dabei 75 PS rausgequetscht und heute kommen die gleichen Motoren mit 7L Super aus und bringen locker 150PS.
Jetzt gibt's Atom mit der Leistung eines pentnium EE. Aber wenn man wenig strom verbrauchen will kann man einen aktullen pentnium kaufen und den mit einer 7770 kombinieren.
Edit: Außerdem kommen auch mit derzeitiger Plannung kaum Leistungssprünge raus die man nicht mit OC einholen könnte.
 
Zuletzt bearbeitet:
Zurück