Intel Skylake: Bilder und Benchmarks aufgetaucht

das problem liegt doch nicht bei AMD.

die fertigung ist das problem und die wurde vor jahren ausgelagert!
kaveri wäre sicher mit konkurrenzfähiger fertigung besser, die µArch selbst ist nicht schlecht.

udn deswegen muß man auf Zen warten, weil AMD da seit jahren wieder fertigungsmässig mit Intel mithalten kann!
 
Und glaube ich mehr Kohle.

Das ist absolut nicht vergleichbar (von dem Standpunkt aus ists verwunderlich dass der Abstand nicht noch viel größer ist):
Intel macht grob doppelt so viel Gewinn wie AMD Umsatz macht. Der Börsenwert von AMD liegt iirc irgendwo zwischen 2 und 3 Milliarden Dollar - wenn das Kartellgesetz das nicht unterbinden würde und Intel das wollte könnte Intel ganz AMD alle 3 Monate kaufen von ihrem Gewinn! :schief:

Aber bevor das zu weit abschweift - eigentlich gehts hier nicht um AMD oder Module oder sonstwas sondern um Skylake - also so langsam wieder die Kurve kriegen zum Thema. :-)
 
ich habe eben ahnung von CPUs, deswegen finde ich den blödsinn von den "unechten" kernen auch so schlimm!
die geteile FPU tut nichts zur sache.
Ich finde es auch falsch unechte Kerne dazu schreiben, sind halt zwei Integer-Cores die sich paar Sachen teilen.
Entsprechend wird das teilen, als nicht vollwertig angesehen und als nicht echt bezeichnet.

die fertigung ist das problem und die wurde vor jahren ausgelagert!
kaveri wäre sicher mit konkurrenzfähiger fertigung besser, die µArch selbst ist nicht schlecht.

udn deswegen muß man auf Zen warten, weil AMD da seit jahren wieder fertigungsmässig mit Intel mithalten kann!
Warum muss man auf Zen warten, wenn die µArch toll ist?
Wenn die Architektur toll wäre, müsste man nicht auf Zen warten, sondern nur auf eine Überarbeitung der Architektur und primär auf die 14nm Fertigung.
Aber wir bekommen Zen, als eine "ganz neue" Architektur, weil das mit Bulldozer auch mit einer modernen Fertigung nicht optimal ist.
 
Ach, was ist das denn? Ein paar Stunden nach AMDs Leak passiert das ganze zufällig auch bei Intel? :D

Was für Zufälle es doch gibt ...


@ "_crys" & "IT-Extremist" :

Da ihr offenbar beide keine Ahnung habt wovon ihr eigentlich redet, werdet ihr mit Sicherheit auch zu keinem Ergebnis kommen.

Aber zum Glück kann man sich ja fortbilden, Wikipedia ist immer eine gute erste Anlaufstelle ;)
 
Das sehe ich jetzt auch als völlig egal an... PCIe4.0 kommt wenns gut läuft vielleicht Ende 2016, bis erste Grafikkarten das unterstützen ists eher 2017 und bis man einen echten Performancevorteil davon hat wirds gefühlt 2020 (selbst PCIe 3.0 ist im normalen Consumerbereich ja nur minimalst schneller als die 2.0 version).

Vorteile hats natürlich wenn man viele Geräte mit viel bandbreite hat, etwa ein SLI-System und PCIe-SSDs die ja im kommen sind, da könnte man mit der gleichen Laneanzahl dann natürlich wesentlich schneller Daten schaufeln.

Aber ehrlich gesagt ist das nicht die Zielgruppe Mainstream-Sockel, 99,9% der Nutzer haben Null Vorteil von PCIe 3 oder 4 gegenüber dem 2.0er Standard. Das wäre eher interessant für die High-End Plattform, vielleicht schon mit Skylake-E(P), ich schätze aber eher erst mit dem Nachfolger.
 
es ist eh egal, sollte das hier nur mal klarstellen, weil viele die streichung von PCIe 4.0 nicht mitbekommen haben.

geplant war es ja, aber Intel hat es dann aufgrund von problemen gestrichen, darüber wurde vor monaten berichtet.
 
Gut das ich erst auf x79 umgestiegen bin zu einem guten Preis, dann kann der jetzt noch 2 Jahre bleiben und man muss nur noch die GPU tauschen, ist ja auch teuer genug...
 
ich habe eben schon ahnung, aber schon lustig das du mich weil ich mehr ahnung als andere habe beleidigen mußt!

Soso, du beleidigt also niemanden. Das du hier schon einige, unter anderen mich, als Fanboy beschimpft hast zählt für dich offenbar nicht unter beleidigen, jedenfalls wenn du es tust.

PS: du hast wirklich entweder keine Ahnung oder verdrehst und ignoriert die Tatsachen bis die in dein Weltbild passen in dem AMD noch immer die besseren CPUs baut.

genug OT für heute.
 
unklug war es aus marketingsicht sicher, aber aus technischer sicht war es eben zu 100% korrekt!



natürlich, aber die geschwindigkeit definiert eben nicht was ein kern ist oder was keiner ist!






der Type-C hat ein seine eigene spec.
man kann halt am stecker selbst nicht erkennen ob ein gerät 2.0, 3.0 oder 3.1 bietet:\

Die Begriffswahl ist in der Tat nicht ganz eindeutig, aber Apple scheint bislang der einzige Hersteller zu sein, der die Lücke ausnutzt und einen Controller mit USB-3.0-Geschwindigkeit nach USB-3.1-Spezifikation verbaut. Alle anderen mit bekannten Lösungen nutzten 10 Gbit/s. Zum allgemeinen Verständnis die Begriffsdefinitionen aus den Spezifikationen:

Enhanced SuperSpeed: An adjective referring to any valid collection of USB defined features defined for the bus
that runs over the SSRx and SSTx differential pairs in a USB 3.0 or USB 3.1 system. It is
used in place of phrases like SuperSpeed/SuperSpeedPlus.

Gen 1: Gen 1 is an adjective used to refer to the Physical layer associated with a 5.0 Gbps
signaling rate. The original USB SuperSpeed Phy and a Gen 1 Phy refer to the same Phy.

SuperSpeed: An adjective referring to the architectural layer portions of a device defined in this
specification when operating with a Gen 1 PHY. Note previously defined as USB operation
at 5 Gbps.

SuperSpeedPlus: An adjective referring to the architectural layer portions of a device defined in this
specification when operating with a Gen 2 PHY

SuperSpeed = USB 3.0 Geschwindigkeit = Gen1 = 5 Gbit/s
SuperSpeed+ = USB 3.1 Geschwindigkeit = Gen2 = 10 Gbit/s


So oder so lässt sich festhalten: Es gibt keinerlei Hinweise auf eine USB 10-Gbit/s-Integration in die neuen Chipsätze. Aber sie haben endlich genug PCI-Express-Lanes, um entsprechende Zusatzcontroller ohne große Nachteile zu verbauen.
 
Bis zu 20, ja. Davon gehen noch SATA und ggf. USB-3.0-Ports ab, wenn mehr als 6 Stück davon gewünscht sind. Bei einem USB-3.1-Rechner ist das wohl eher nicht der Fall, also wären z.B.
6x USB 3.0
2x USB 3.1 via Controller
6x SATA
1 M.2 3.0x4
1 x4 Slot
2 x1 Slots
1x GB-LAN
und PCI (via Bridge)
ohne Lane-Sharing machbar.
 
das mit Gen 1 udn Gen 2 wird halt sicher die nächste große kundenaverarsche, soetwas finde ich nicht gut:\
da wird eine spec rein mit dem ziel gemacht, damit schlecht informierte kunden hinters licht zu führen!
hoffentlich wird bei tests in zukunft genau drauf geachtet.

wenn das mit den neuen chipsätzen für FM2+ stimmt udn die dann USB 3.1 Gen 2 integriert haben, dann wird es sich wohl kein hersteller nehmen lassen bei einem S1151 brett auch mit 3.1 zu werben, sonst wäre man da ja im "nachteil".
bei teureren bretter vielleicht egal, weil die einen zusatzchip verbauen, aber bei billigbrettern werden einige sicher nur die "umbenennung" nutzen.
 
Ich glaube, du siehst hier gerade ein Problem wo keins ist. Laut Defintion hat USB 3.0 (SS) 5Gbit/s und USB 3.1 (SS+) 10Gbit/s.

Viel einfacher geht es eigentlich nicht ...
 
Zurück