Intel stellt Broadwell-H vor - Vorab-Test des Core i7-5775C mit Iris Pro Graphics 6200

Ist ja schön das die Abstände in 720p relativ groß sind. Aber wie sieht es denn mit 1080p oder 1440p aus. Wer bitte kauft sich denn so eine CPU und spielt dann in 720p? Mich würde halt auch interessieren, ob es sinn macht von einem 3770K auf eine neue zu Updaten. Da bringen einem jetzt 720p Benchmarks nicht wirklich was, wenn man den CPU zum Zocken nutzt. Ich würde zumindest jetzt schätzen das es in 1080p nicht mehr so "gut" aussieht.

Oder hab ich irgendwo was überlesen ... ?

Das die Leistung trotz geringeren Takt so ausfällt ist natürlich sehr schön. Nur wenn das hinhaut mit den 65W und dann gehts nich weiter ... mhh.
 
Zuletzt bearbeitet:
Im Moment gibt es für mich nur wenige Gründe diesen I7-5775C zu kaufen, da ein I7-4790K billiger und bei taktlastigen Anwendungen schneller ist. Braucht man mehr Kerne, geht der Griff zum I7-5820K.

Ich hätte dieses Teil dann bitte gern mit 6 Kernen bei ca. 100 Watt TDP auf einem Desktop-Sockel. Das wäre mal ein echter Fortschritt.
So ist es halt eine gute Notebook-CPU, im Desktopbereich aber eher nur ein Stromspar I7-4790K mit besserer Graka.

Interessant wäre ein Pro-Takt-Vergleich zum I7-4970K und OC-Erfahrungswerte.
Geht das Teil bequem auf 4,5 Ghz, wäre es sicher eine Überlegung wert.
 
Im Moment gibt es für mich nur wenige Gründe diesen I7-5775C zu kaufen, da ein I7-4790K billiger und bei taktlastigen Anwendungen schneller ist. Braucht man mehr Kerne, geht der Griff zum I7-5820K.

Ich hätte dieses Teil dann bitte gern mit 6 Kernen bei ca. 100 Watt TDP auf einem Desktop-Sockel. Das wäre mal ein echter Fortschritt.
So ist es halt eine gute Notebook-CPU, im Desktopbereich aber eher nur ein Stromspar I7-4790K mit besserer Graka.

Interessant wäre ein Pro-Takt-Vergleich zum I7-4970K und OC-Erfahrungswerte.
Geht das Teil bequem auf 4,5 Ghz, wäre es sicher eine Überlegung wert.
Wirds doch mit Broadwell-E geben? :huh:
 
Ist ja schön das die Abstände in 720p relativ groß sind. Aber wie sieht es denn mit 1080p oder 1440p aus. Wer bitte kauft sich denn so eine CPU und spielt dann in 720p? Mich würde halt auch interessieren, ob es sinn macht von einem 3770K auf eine neue zu Updaten. Da bringen einem jetzt 720p Benchmarks nicht wirklich was, wenn man den CPU zum Zocken nutzt. Ich würde zumindest jetzt schätzen das es in 1080p nicht mehr so "gut" aussieht.

Das wurde schon einmal groß diskutiert. Es bringt einfach nichts CPUs zu vergleichen wenn man im Grafiklimit hängt und jede CPU die selben Bildraten abliefert, weil sie kaum belastet werden? ;)
 
Ich glaube unter jedem CPU Test gibt es immer mindestens einen, der das Konzept eines CPU Benchmarks nicht verstanden hat.

Ich versteh schon den sinn, wieso man das in 720p macht. Aber es ist halt auch nicht so ganz Praxisnah wenn jemand mit nem 1440p TFT spielen will. Demjenigen wird in erster Linie interessieren, was die CPU da mit der Grafikkarte bei der Auflösung zusammen schafft. Das sollte auch nicht heißen, dass ich die 720p benchmarks sinnlos finde, es zeigt halt am besten die reine Rohleistung der CPU ohne das andere Komponenten dazwichenfunken. Es wäre halt aber auch schön zu sehen, ob dieser Vorsprung auch in höheren Auflösungen noch irgendwo durchsickert. Gibt einige Spiele die trotz guter GPUs immernoch ins CPU limit rennen bei 1080p.
 
Ich versteh schon den sinn, wieso man das in 720p macht. Aber es ist halt auch nicht so ganz Praxisnah wenn jemand mit nem 1440p TFT spielen will. Demjenigen wird in erster Linie interessieren, was die CPU da mit der Grafikkarte bei der Auflösung zusammen schafft. Das sollte auch nicht heißen, dass ich die 720p benchmarks sinnlos finde, es zeigt halt am besten die reine Rohleistung der CPU ohne das andere Komponenten dazwichenfunken. Es wäre halt aber auch schön zu sehen, ob dieser Vorsprung auch in höheren Auflösungen noch irgendwo durchsickert. Gibt einige Spiele die trotz guter GPUs immernoch ins CPU limit rennen bei 1080p.

Die Auflösung ist für die Belastung der CPU irrelevant, sprich gibt es bei 1080p ein CPU-Limit hat man das auch bei 720p.

Andersherum kann man eben sagen wenn eine CPU 100fps in 720p erreicht auch 100fps in 1080p, 1440p usw möglich sind - solange die GPU nicht ausbremst.

@PCGH: Es könnte vielleicht sinnvoll sein in jedem CPU-Test nochmal kurz die Hintergründe des Tests in 720p zu erklären oder auf den entsprechenden Artikel zu verlinken ;)
 
Andersherum kann man eben sagen wenn eine CPU 100fps in 720p erreicht auch 100fps in 1080p, 1440p usw möglich sind - solange die GPU nicht ausbremst.

Ok, auf dem Gebiet bin ich da dann wohl nicht so bewandert, deshalb auch die Frage. Aber ist das wirklich so, das die CPU-Leistung völlig abgekapselt von der Auflösung ist?
Das will mir jetzt etwas schwer in den Kopf. Weil ja auch mit jeder größeren Auflösung mehr dargestellt wird, was doch auch die CPU betreffen muss. KI oder Physikalische effekte ohne PhysX z.B.. Oder auch
Objekte die ja mit der Auflösung auch zunehmen auf dem Bildschirm. Da fällt mir eigentlich gleich sowas wie Arma3 oder DayZ-Standalone ein.

In erster Linie interessiert es mich aber, ob es sinn macht von einem 3770K auf einen jetzt aktuellen umzusteigen oder ob das eher sinnfrei ist. Ich schiele da bei GPU in richtung 980Ti bzw. einer 390X. Meine 680
hat langsam echt ihren Zenit überschritten.
 
Die KI-Last bleibt gleich, auch die Spielphysik ist nahezu unabhängig vom angezeigten Bild – schließlich muss der Kistenstapel selbst dann physikalisch korrekt zusammenfallen, wenn man rückwärts hineinläuft. Reine Effektphysik, z.B. PhysX, kann mit dem LoD verknüpft sein und dann geringfügig mit höheren Auflösungen ansteigen. Das Rendering dieser Effekte ist aber ungleich belastender, als die zugehörige Bewegungsberechnung. In den meisten Fällen wird ein LoD aber lediglich den Detailgrad eines gleichbleibenden Objektes erhöhen. Für den Spielablauf und damit die CPU spielt dieser keine Rolle, die Darstellung der Details obliegt der GPU.

Okay, aber trotzdem. Gerade bei diesem Thema ist Qualität doch das entscheidende Thema. Nehmen wir aber als Beispiel mal das beliebte konvertieren von Filmen. Wie dumm ist es z.B. sich eine BluRay zu holen und diese dann kleiner zu packen, dabei aber auf die Qualität zu verzichten? Dann hätte man sich auch die DVD holen/laden können! Alles andere ist doch unsinnig.

Abseits illegaler Blu-Ray-Rips gibt es auch Leute, die Videos für die mobile Nutzung auf ihrem Smartphone oder zum Hochladen auf Videoplattformen in ein kompakteres Format konvertieren. In beiden Fällen sind leichte Qualitätseinbußen tollerierbar. Wer sich eine Blu-Ray für die Wiedergabe auf hochauflösenden Geräten kauft, ist mit einem Blu-Ray-Player in der Regel am besten dran.


Ich versteh schon den sinn, wieso man das in 720p macht. Aber es ist halt auch nicht so ganz Praxisnah wenn jemand mit nem 1440p TFT spielen will. Demjenigen wird in erster Linie interessieren, was die CPU da mit der Grafikkarte bei der Auflösung zusammen schafft. Das sollte auch nicht heißen, dass ich die 720p benchmarks sinnlos finde, es zeigt halt am besten die reine Rohleistung der CPU ohne das andere Komponenten dazwichenfunken. Es wäre halt aber auch schön zu sehen, ob dieser Vorsprung auch in höheren Auflösungen noch irgendwo durchsickert. Gibt einige Spiele die trotz guter GPUs immernoch ins CPU limit rennen bei 1080p.

Wir machen regelmäßig Tests zu CPU- und GPU-Limitierung, meist 1-2 mal im Jahr allgemein und zu an den CPU- und GPU-Messungen bei jedem größeren Spiele-Launch kann man auch einiges ablesen. Witcher 3 lief z.B. auf einem 1,2 GHz Haswell-Quadcore mit Titan X in 720p mit 55 fps avg., in 1440p (bei gleicher CPU-Last) waren selbst mit 4,5 GHz nur 51 fps möglich. Da wird der Wechsel von Haswell auf Broadwell wohl auch nicht für eine Leistungssteigerung sorgen. Eine GTX 770, deren Leistung deiner GPU am nächsten kommt, wäre selbst mit einem 1,2 GHz Dualcore GPU limitiert. (Bzw. ein 1,2 GHz Haswell mit Titan X erreicht in 720 p ohne GPU-Limit mehr fps)
 
Ok, auf dem Gebiet bin ich da dann wohl nicht so bewandert, deshalb auch die Frage. Aber ist das wirklich so, das die CPU-Leistung völlig abgekapselt von der Auflösung ist?
Das will mir jetzt etwas schwer in den Kopf. Weil ja auch mit jeder größeren Auflösung mehr dargestellt wird, was doch auch die CPU betreffen muss. KI oder Physikalische effekte ohne PhysX z.B.. Oder auch
Objekte die ja mit der Auflösung auch zunehmen auf dem Bildschirm. Da fällt mir eigentlich gleich sowas wie Arma3 oder DayZ-Standalone ein.

In erster Linie interessiert es mich aber, ob es sinn macht von einem 3770K auf einen jetzt aktuellen umzusteigen oder ob das eher sinnfrei ist. Ich schiele da bei GPU in richtung 980Ti bzw. einer 390X. Meine 680
hat langsam echt ihren Zenit überschritten.

Die KI Interessiert die Auflösung doch nicht:what:

Wenn du hauptsächlich spielst (im GPU-Limit) ist mMn ein Aufrüsten vom nem i7 3770k vollkommen unnötig (habe ja mit dem 3770 ohne K fast den gleichen).

Generell wird man in Zukunft eher die CPU aufrüsten weil man neue Mainboardfeatures haben will, mit ner einigermaßen aktuellen (Intel) CPU ist man noch für Jahre gerüstet (DX12...)
 
Hier sind in den letzten Tagen höchstinteressante Artikel und Berichte zu lesen gewesen -- danke dafür! Insgesamt bin ich positiv überrascht, dass der 5775C trotz 700 MHz weniger Takt den 4790K meist hinter sich lassen kann. In Sachen Takt sind das immerhin fast 20 Prozent Unterschied.
Basistakt ist doch irrelevant. Seitdem CPUs einen Turbo besitzen, müsste man schon wissen, welcher Takt real anlag. Und da ist der Unterschied vermutlich nicht so gross, da ich davon ausgehe, dass Broadwell den Turbo besser nutzen kann. Dass man den i7-4790K meist hinter sich lässt, ist auch nicht wirklich wahr. Spiele sind kein guter Indikator, da diese oft recht schlecht mit dem Takt skalieren. Man bräuchte schon ein 4C Haswell Modell mit identischen Taktraten, um die Verbesserungen pro Takt besser einschätzen zu können. Der ist im Parcours leider nicht vorhanden. Normale Anwendungen sind da schon ein besserer Indikator. Und von den 5 Anwendungen im Parcors gewinnt der Haswell 3, eine ist relativ ausgeglichen und der Broadwell gewinnt lediglich eine. Und letzte ist ausgerechnet eine veraltete Luxmark Version. Ein Test mit der aktuellen Version 3 von Luxmark wäre sicherlich interessanter gewesen.
 
Ok, ich bin gut aufgehoben mit meinem System. Nach 4 Jahren oder so, kommt bei mir wieder ein neuer Prozessor zum Einsatz.
Bis dahin, kann sich hoffe ich mal, einigen verändern.
 
Guter Test, trotz ES lässt sich schon einiges über die überraschende Performance sagen:
Trotz deutlich geringerem Takt nimmt es der i7-5775C mit der Devil's-Canyon-CPU i7-4790K auf,
Das kommt unerwartet, profitiert der Chip so sehr vom eDRAM? Oder liegt das am Turbo der ständig zünden kann?
Schön für Intel, dass die Iris 6200 den AMD 7850K schlägt.
Aber wie viele Anwender interessiert das?
Die meisten die einen i7 mit offenem MUlti kaufen werden die Grafikeinheit nie nutzen, da sie auf eine dedizierte Grafikeinheit setzen, zumal man wie man im Test gesehn hat Graka und CPU zusammen nicht zusammen voll auslasten kann.
Zumal der AMD nur knapp ein drittel kostet.
Sollen sie einen i3 mit der Iris bringen, dann wird es interessant.
Der Tellerrand is so schmal.
Ich nutze QuickSync und es sorgt dafür, dass eine i5 oder i7 CPU mit iGPU jeden aktuellen 12,16 oder gar 18 Kerner (Xeon) hinter sich lässt - sofern die Software dies unterstützt.
Was man sonst noch alles in die iGPU auslagern kann werden die kommenden Jahre LANGSAM zeigen. Dann wird es nicht mehr heißen "wer braucht das".
Eine CPU oder APU kaufe ich immer noch zuerst mit viel CPU Leistung, die GPU Leistung interessiert mich dann erst sekundär - letztere ist schnell erweiterbar, erstere... hat oft zur Folge, dass man den gesamten Utnerbau ändern muss.
Quasi gleiche Leistung wie der i7-4790K bei nominell 700 MHz weniger und nur 65 Watt-Limit ist weniger als erwartet? Dann sehe ich das Problem weniger bei Intel als bei den Erwartungen der Leute.

100% Zustimmung. Es handelt sich ja schließlich ein Refresh, ich hätte mit 3-6% gerechnet, nicht 20%
I3 und i5 in Notebooks, sowie auf Desktop-Systemen, die als Office-Rechner genutzt werden. Da sehe ich auch den Sinn. Aber nicht in hochgezüchteten Spiele-CPUs, bei denen die Grafikeinheit sowieso brach liegt, aber fleißig mitbezahlt werden darf :/
Du würdest exakt dasselbe zahlen, ob die iGPU nun drin ist oder nicht.
Intel evaluiert die Performance ihrer CPU und gibt sie dann in die vorgegebenen Preisklassen, die man seit 20 Jahren hat...

Man kann mit einem PC angeblich nicht nur spielen, eine iGPU hat also außerdem viele potentielle Möglichkeiten.
Die CPU Leistung finde ich gut, das komplette Paket aber echt bescheiden! Für Office-PC's finde ich die integrierte Grafikeinheit gut, aber wenn man nicht beides zusammen auslasten kann, albern. Für mich sieht das aus wie eine spiele CPU und da würde ich mir eher einen 860K, oder i3 holen und eine 280X, für das Geld.

Diese CPU mit einem 7850K zu vergleichen ist mMn vollkommener Quatsch. Lasst ihr auch öfter mal eine 250X gegen eine 970 antreten?
Kaveri ist schwächer als z.B. Centurion aus dem eigenen Lager und warum? Weil die CPU und GPU Leistung in Relation stehen und so ein brauchbares Paket ergeben.

Also was ich meine ist:
Für welche Anwender genau, soll diese CPU gedacht sein?


Die Antwort ist: für JEDEN, außer Enthusiasten.
Ich wüsste jetzt grade nichts, was die CPU nicht kann? Spielen -> Läuft genauso gut wie die 4790, sogar besser. Das bei weniger verbrauch - also leichter und leiser zu kühlen.
Streamen usw dank QuickSync ez-pz möglich, wers mag.
usw usf.
Und natürlich für einen enorm performanten Büro PC.
Die CPU Leistung finde ich gut, das komplette Paket aber echt bescheiden! Für Office-PC's finde ich die integrierte Grafikeinheit gut, aber wenn man nicht beides zusammen auslasten kann, albern. Für mich sieht das aus wie eine spiele CPU und da würde ich mir eher einen 860K, oder i3 holen und eine 280X, für das Geld.

Diese CPU mit einem 7850K zu vergleichen ist mMn vollkommener Quatsch. Lasst ihr auch öfter mal eine 250X gegen eine 970 antreten?
Kaveri ist schwächer als z.B. Centurion aus dem eigenen Lager und warum? Weil die CPU und GPU Leistung in Relation stehen und so ein brauchbares Paket ergeben.

Also was ich meine ist:
Für welche Anwender genau, soll diese CPU gedacht sein?


Das tut man doch:huh: Xeon usw.
Da gibts ne Lösung für:
Zocke und Rendere nie zur selben Zeit. Außerdem sind CPU z.B. bei Blender oder die dedizierte GPU (bei Sony Vegas Pro, Adobe After Effects & Priemiere Pro, Video Pro X ...) deutlich schneller, als das olle Ding da in der CPU. Aber was du machst ist mir egal, wenn du damit klarkommst, bzw. es magst, dann ist das toll - ein Kaufgrund ist das aber mitunter nicht.
Also nen eigenen Computer kaufen, für was was ein einzelner kann? Super Lösung :D
Außerdem gibts ja einige die "Streamen" usw. Das sind gar nicht so wenige.
Und dann kann man die iGPU ja noch für viel mehr einsetzen, nicht nur für das geniale QuickSync.
Außerdem ist ja das Problem, dass eine andere CPU ohne QuickSync wesentlich langsamer ist, sofern man letzteres Nutzen kann.
Also ist ein eigener PC nicht immer die bessere Lösung als diese All-In-One CPU.

Verstehe hier das geflenne von manchen nicht. Man kriegt hier zum fairen Preis eine CPU die verdammt viel kann - dann wird sofort geweint, dass sie quasi zu viel kann.

Wenn Intel nur die CPU verbaut hätte, würde man wohl rumheulen, dass sie mit nur 80mm Chipfläche so viel Geld machen, das ist sicher für irgendwen auch unfair. Bestimmt.
Du bringst Rendern und meinst dann, dass den meisten die Qualität egal sei? Bist du noch nicht ganz wach?
biggrin1.gif
Ich hab mal alle Familienfilme versucht zu digitalisieren und extra den 980X von der Arbeit mit nach Hause genommen.
Nachdem ichs kurz angefangen hab' hab ich gesehen, dass ich dafür mehrere WOCHEN brauchen würde.
Mit QuickSync gings dann Ratzfatz.
Die Qualitätsunterschiede muss man oft mit der LUPE suchen. Ich rede hier aber vom Video Encoden.

Rendern, im Sinne von Animationen, Maya, CAD ist eine andere Baustelle.

Wie dem auch sei, ich verstehe nicht: diese CPU wirkt auf mich völlig rund, wo ist das Problem. Hätte ich ein 1150er Board mit schwachbrüstiger CPU, würde ich diese hier nachrüsten. EGAL was ich brauche.
 
Zuletzt bearbeitet:
Cleriker schrieb:
Okay, aber trotzdem. Gerade bei diesem Thema ist Qualität doch das entscheidende Thema. Nehmen wir aber als Beispiel mal das beliebte konvertieren von Filmen. Wie dumm ist es z.B. sich eine BluRay zu holen und diese dann kleiner zu packen, dabei aber auf die Qualität zu verzichten? Dann hätte man sich auch die DVD holen/laden können! Alles andere ist doch unsinnig.

Abseits illegaler Blu-Ray-Rips gibt es auch Leute, die Videos für die mobile Nutzung auf ihrem Smartphone oder zum Hochladen auf Videoplattformen in ein kompakteres Format konvertieren. In beiden Fällen sind leichte Qualitätseinbußen tollerierbar. Wer sich eine Blu-Ray für die Wiedergabe auf hochauflösenden Geräten kauft, ist mit einem Blu-Ray-Player in der Regel am besten dran.

Erstens das. Dann gibt's aber auch noch solche, die alte VHS-Bänder digitalisieren. Da macht eine Videobearbeitung in 1080px gleich aus zwei Gründen wenig Sinn (habe ich selbst festgestellt):
Erstens sind die meisten dieser Filme noch im alten 4:3 Format, sodass die bei Konvertierung in FHD unschön in die Breite verzerrt werden.
Zweitens ist die Filmqualität der alten Kassetten meistens auch nicht so gut, dass sich das lohnen würde - da hat man dann riesengroße Dateien mit mehreren GB ohne eine spürbare Steigerung der Bildqualität.
 
Zurück