Intel Skylake: Neue Prozessoren zu Release angeblich mit Lieferknappheit

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Intel Skylake: Neue Prozessoren zu Release angeblich mit Lieferknappheit

Die offizielle Präsentation von Intels neuer CPU-Generation mit dem Codenamen Skylake soll angeblich in der kommenden Woche stattfinden, jedoch müssen sich laut einem Bericht potenzielle Käufer zur Markteinführung auf eine geringe Verfügbarkeit von Core i7-6700K und Core i5-6600K einstellen.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Intel Skylake: Neue Prozessoren zu Release angeblich mit Lieferknappheit
 
Seid doch froh wenn ihr nicht aufrüsten müsst, weil die Leistungssteigerung so klein ausfällt, dass es sich nicht lohnt.

Und wieso wird in jeder Intel-News über 4 Kerne geheult. Wer extreme will, soll auch extreme bezahlen. Hier glaubt doch wohl niemand, dass Intel vor lauter Langeweile einen 6-Kerner für den Mainstream released und sich dadurch intern die Kunden für die E-Plattform klaut. :schief:
 
Seid doch froh wenn ihr nicht aufrüsten müsst, weil die Leistungssteigerung so klein ausfällt, dass es sich nicht lohnt.

Und wieso wird in jeder Intel-News über 4 Kerne geheult. Wer extreme will, soll auch extreme bezahlen. Hier glaubt doch wohl niemand, dass Intel vor lauter Langeweile einen 6-Kerner für den Mainstream released und sich dadurch intern die Kunden für die E-Plattform klaut. :schief:

Es ist eben extrem ärgerlich das die Entwicklung im CPU Bereich die letzten 5 Jahre fast stillsteht während es in den Jahrzehnten davon schnell voran ging, inklusive dem Fortschritt in der Software- und Spielebranche. Klar wäre es nett wenn man auf einem alten Z80 mit seinen 8500 Transistoren noch alles zum laufen bekäme, andererseits macht Crysis 3 als schwarz/weißes Jump and Run doch weniger Eindruck als das DX 11 Spiel welches wir kennen.
 
Leistung ist bei CPU-Entwicklung halt nicht der einzige Faktor und bei z.B. Effizienz, iGPU o.ä. ist die Entwicklung sicher nicht stagniert.

Nicht alles ist gleich "Geheule"
Ich habe zwar keine wirklichen Tränen erwartet, aber das Wort sollte nur verdeutlichen, dass unter wirklich jeder Intel-News sich über dasselbe beschwert wird.

Wieso sollten mehrere Kerne bei Spielen eine Rolle spielen? Der Trend geht zu Gaming in 4k, gibt es denn aktuell noch überhaupt ein Spiel, dass da im CPU-Limit sitzt? Ich wüsste keines.

Natürlich in einer Form für normale Anwender und nicht mit extra Melkanlage (2011-3).
Normale Anwender brauchen keinen 6-Kerner ;)
 
Es wird programmiert, was der Durchschnitt darstellen und benutzen kann. Mit jedem Jahr, das ins Land zieht, bremst sich die Entwicklung also immer weiter ab.

Wenn das so wäre, hätte es Witcher 3 also vorbildlich mehrkern-verteiltes Programm (und zwar auch >4) in der Form nie geben dürfen.
Die Entwicklung begann sicherlich 2013 oder noch früher und selbst heute 2015 haben über 80% der Steam-User nur 2 Kern-CPUs.

Das Spiel hätte aus der Warte ein potentieller finanzieller Flop sein *müssen*, da es von vorne herein 80% der möglichen Kundschaft ausschließt.
(Und da sind die Rollenspielhasser unter den verbleibenden 20% noch nichtmal rausgerechnet)

PS: Ich weiß auch nicht, was immer in Richtung "Intels Raffgier" argumentiert wird. Die Top-Consumer-CPU kostet seit dem i7-860 so um die 300€, wegen der Währungsschwäche im Moment etwas mehr. Aber auf keinen Fall wird die Inflationsrate erreicht, so dass Intel heute unwirtschaftlicher arbeiten dürfte als Ende 2008 / Anfang 2009.

Das sind sicherlich keine Heiligen oder Samariter (Ausnutzung der Monopolstellung bei Dell / HP etc.), aber auch die müssen sich der Macht des Marktes beugen. Es werden nun mal weniger PCs verkauft. Und hohe Preise würden das beschleunigen, wenn der Mehrwert einer neuen CPU mit jeder neuen Serie sinkt.
 
Wieso sollten mehrere Kerne bei Spielen eine Rolle spielen? Der Trend geht zu Gaming in 4k, gibt es denn aktuell noch überhaupt ein Spiel, dass da im CPU-Limit sitzt? Ich wüsste keines.

Anno 1701, 1404 und 2070 und es kommt ja bald noch ein neuer Teil, man darf gespannt sein. Ach ja, Crysis 3 und GTA 4 fallen mir noch ein.

Normale Anwender brauchen keinen 6-Kerner ;)

Soetwas habe ich mal mit dem 486er DX4 und seinen unglaublich 100 MHz gehört, die würde auch keiner brauchen und heute hat selbst mein Router eine stärkere CPU.
 
Und dass "normale Anwender" keine 6 oder gar 8- Kerner benötigen... [...] Kommt nur von Menschen ohne Phantasie und Programmiererfahrung. Hat man die Mittel, macht man auch was draus.
"Normale Anwender" schauen sich YouTube-Videos in 360p an und machen ihre Steuererklärung am Rechner. "Normale Anwender" programmieren nix.
 
Mehr Threads werden nicht dafür benötigt, um ein CPU-Limit zu entschärfen. Über mehr Threads kann man Dinge wie die KI separat berechnen und das eröffnet ganz andere Möglichkeiten. Fps sind nicht alles beim Spielen und machen auch nicht den Spielspaß aus (ein PCGH_Torsten sollte das eigentlich besser wissen :rollen:).

Und dass "normale Anwender" keine 6 oder gar 8- Kerner benötigen...
Klingt wie:

Kommt nur von Menschen ohne Phantasie und Programmiererfahrung. Hat man die Mittel, macht man auch was draus.

Für die Berechnung von KI braucht man keine zusätzlichen Kerne. Man kann genauso gut freie Ressourcen auf einem auch andersweitig genutzten Kern für zusätzliche KI verwenden. Diese freien Ressourcen gibt es mit aktuellen Quadcores in fast allen Spielen und Entwickler scheinen wenig Interesse daran zu haben, diese Möglichkeiten zu nutzen. Ich muss Valyria daher zustimmen, wenn er sagt, dass es an Anwendungen für zusätzliche Kerne nutzt.
Interessant, dass in diesem Zusammenhang ausgerechnet Witcher 3 genannt wird. Ein Spiel, dass selbst mit einem stark untertakteten Quadcore ins GPU-Limit läuft.
 
Für die Berechnung von KI braucht man keine zusätzlichen Kerne. Man kann genauso gut freie Ressourcen auf einem auch andersweitig genutzten Kern für zusätzliche KI verwenden. Diese freien Ressourcen gibt es mit aktuellen Quadcores in fast allen Spielen und Entwickler scheinen wenig Interesse daran zu haben, diese Möglichkeiten zu nutzen. Ich muss Valyria daher zustimmen, wenn er sagt, dass es an Anwendungen für zusätzliche Kerne nutzt.

Was aber eher daran liegt das es bei Spielen defakto keine echte KI gibt sondern eigentlich nur Algorithmen welchen einem eine KI vorgaukeln. Für eine echte KI kann man nie genug Rechenleistung haben, da gibt es dann sogar für einen Supercomputer verwendung. Eine wirklich gute KI wäre mal eine nette Sache, wobei die meisten Zocker sie nicht zu würdigen wüßten und damit der große Aufwand für die Katz wäre.
 
Da ihr euch aber auf den 4-Kernern ausruhen möchtet und mit dem momentanen Stand völlig zufrieden scheint, kann ich mich - dank euch - dann auf 2020/21 freuen, um Fortschritt (gerade in der KI-Entwicklung) zu erfahren.
Ich würd mich freuen, wenn man 16-Kerner für 100 Euro erwerben könnte. Für medizinische Forschung kann es gar nicht genug Rechenleistung geben; da unser aller Lebenserwartung mittelbar damit zusammenhängt, kannst Du Dir denken, dass grundsätzliches Interesse an Fortschritt besteht. Nur wurden hier ja Tatsachen genannt, die erklären, warum Intel so handelt.
Was soll übrigens "dank euch" heißen? Sollen wir vielleicht ne Petition an den deutschen Bundestag richten, dieser möge beschließen, Intel doch (bidde bidde!) zu mehr Fortschritt zu bewegen?
Wenn ich meinen Rechner übrigens nicht gerade für Folding at Home verwende, habe ich große Schwierigkeiten, meinen Pentium-Zweikerner auszulasten.
 
ernsthaft?? wenn sie noch nicht mal genügend prozessoren haben, um alle testsampels verschicken zu können (werbung), ist das also extra so, um den preis hoch zu halten??

sinnvoll!
Diejenigen Käufer, die es interessiert, werden schon nach den Tests suchen. Und die ES Sample werden an die Zeitschriften durchgereicht, wenn halt die vorige fertig ist. Diese Vernappung muss nicht real sein. Sondern kann genauso gut vorgetäuscht sein, gerade um vorzuspielen es wäre so.

Für die Berechnung von KI braucht man keine zusätzlichen Kerne. Man kann genauso gut freie Ressourcen auf einem auch andersweitig genutzten Kern für zusätzliche KI verwenden. Diese freien Ressourcen gibt es mit aktuellen Quadcores in fast allen Spielen und Entwickler scheinen wenig Interesse daran zu haben, diese Möglichkeiten zu nutzen. Ich muss Valyria daher zustimmen, wenn er sagt, dass es an Anwendungen für zusätzliche Kerne nutzt.
Interessant, dass in diesem Zusammenhang ausgerechnet Witcher 3 genannt wird. Ein Spiel, dass selbst mit einem stark untertakteten Quadcore ins GPU-Limit läuft.
Bei Intel. Bei AMD FX Prozessoren mit "8Kernen"/4Modulen sieht das ganze schon etwas abgestuft aus. Und das bei 4 Kernen das Optimum liegt ist gut getroffen, weniger sollten es halt definitiv nicht sein, sonst kommt es da eben schon zu stärkeren Einbußen, schon ersichtlich bei nur 2Kernen mit 2 unechten durch HT.
 
Zuletzt bearbeitet:
Wie wäre es mit "nicht jubeln beim x-ten 4-Kerner und nicht kaufen"? Großkonzerne reagieren nur bei Marktdruck. Aber wenn du mit einem 2-Kerner noch glücklich bist und keine Last schaffst, bist du in dieser Diskussion mit deiner kindlichen Rethorik eh falsch.
Es gehört wirklich etwas dazu, sich innerhalb von zwei Zeilen selbst zu widersprechen und im gleichen Atemzug die "Rethorik" [sic!] anderer zu kritisieren.
Inwiefern hab ich denn jetzt etwas falsch gemacht, indem ich einen Zweikerner nutze? Du rufst doch genau dazu auf, keine Vierkerner zu kaufen.
 
Was aber eher daran liegt das es bei Spielen defakto keine echte KI gibt sondern eigentlich nur Algorithmen welchen einem eine KI vorgaukeln. Für eine echte KI kann man nie genug Rechenleistung haben, da gibt es dann sogar für einen Supercomputer verwendung. Eine wirklich gute KI wäre mal eine nette Sache, wobei die meisten Zocker sie nicht zu würdigen wüßten und damit der große Aufwand für die Katz wäre.

Und genau da liegt das Problem. Die Entwickler scheuen schon heute den Aufwand, eine CPU von 2011 mit beispielsweise KI auszulasten, dabei sind längst CPUs von 2015 verfügbar. Ich sehe nicht, wie die Leistung von 2016er CPUs einen Einfluss darauf haben könnte, ob CPU-Ressourcen genutzt werden die seit 2012 brachliegen.
 
Zurück