Angebliche Vorab-Benchmarks: R9 390X 65 % schneller als R9 290X?

Der Weg war schon richtig. Mir ist ein 2-Moduler + CMT immer noch deutlich lieber als ein 2-Kerner + HTT. CMT bietet einfach die deutlich bessere Skalierung. Nur die Umsetzung um CMT herum war nicht gerade optimal in Bulldozer, so dass der CMT Vorteil oft verpufft. Aber diese Erkenntnisse kann man dann ja in K12 und Zen einfliessen lassen.
Nein, der Weg ist leider nicht richtig, denn man weiß schon seit den 80ern, dass mit der parallelisierung Leistung verpufft, deshalb werden, bei gleicher theoretischer Maximalleistung weniger Cores mit mehr IPC immer gegen viele Cores gewinnen. Weil man 90% der Software nur umständlich parallelisieren kann. Einzige Alternative ist eine ECHTE Many-Core-Architektur - aber dafür ist die Software noch nicht weit genug entwickelt und da reden wir auch von 100+ Cores, nicht von 16
AMDs Ansatz war der falsche, das wissen sie selbst, es wurde ja schon angedeutet, dass man richtung Intels Ansatz gehen wird.
Ein i3 hängt sogar einen über $1300 teuren 12-Kern E5-2650L v3 in den meisten Spielen ab. Und weiter? Ein 2-Modul Kaveri ist auch nicht unbedingt langsamer als ein 4-Modul Vishera, wenn das Spiel nur maximal 4 Threads auslasten kann. Das hat vor allem was mit dem Design zu tun und nicht nur mit der Architektur. Man sollte sich immer bewusst darüber sein, dass Bulldozer für Server entwickelt wurde und nicht für Spiele.
Deine Meinung in allen Ehren, aber genau das ist der größte Irrglaube seit Bulldozer-Launch. Und schon so oft widerlegt, dass es nicht mehr feierlich ist, im Serverbereich liegt man noch viel weiter zurück als im Gamingbereich und es wurde auch schon wiederholt von AMD gesagt, dass das eben NICHT so ist.
Das ist ein schöngerede, dass der Prozessor nicht für den Zweck in dem er im Spieleforum schlecht dasteht, designed wurde, aber es ist nunmal leider so, dass der Abstand im Serverbereich deutlich größer ist (weil da Intel nicht die Hälfte der Chipgröße mit der iGPU vonnstopft, sondern weitere Cores draufknallt).
Wenn dem so wäre, wäre nicht nur der Abstand so riesig, sondern AMD würde auch mehr pushen im Servermarkt. Der letzte neue Opteron ist über 2 Jahre alt (von 2012). Da hatte ein Modell 16 Kerne (also 8 Module) @1.8 Ghz (Opteron 6366) und muss sich inzwischen mit Intels "echten" 18 Kernen @ 2.3 Ghz messen (Xeon)2699v3
Ich würde ja auch nicht behaupten, dass ein 2-Kern Haswell eine armselige Figur in High Performance Servern abgibt. Dafür wurde er auch gar nicht gemacht. Ein Armutszeugnis ist eher, dass die Softwarebranche lange wichtige Entwicklungen verschlafen hat. Siehe Multithreading/-tasking (was zB in C++ erst offiziell seit C++11 unterstützt wird), OpenCL (für standardisiertes GPGPU Computing) oder Mantle (für weniger Overhead und effizientere Nutzung der vorhandenen Rechenkapazitäten).
ja das stimmt: Softwareentwicklung ändert sich sehr langsam: das liegt an vielen Faktoren und wird sich nie ändern. Hat man auch schon oft sehen können (Einführung von 64 Bit oder Multicores).
Manche Dinge (wie eben ordentliches Multithreading) werden gerade erst ordentlich erforscht, von der Forschung bis zur Vermittlung (sprich Unterricht/weiterbildung der Entwickler) bis zum Praxiseinsatz werden noch viele Jahre vergehen. Ist ein Henne-Ei Problem.
 
Zuletzt bearbeitet:
Abwarten und Tee trinken.. So wie jedes mal wenn ne neue Grafikkarte kommt. Wäre aber wirklich schön wenn es zu der angeblichen Mehrleistung kommt :hail:
 
Nein, der Weg ist leider nicht richtig
Doch, der Weg mit CMT war und ist absolut richtig. Sozusagen CMP Skalierung zu erreichen, nur ohne den Flächen- und Energieaufwand von CMP.

denn man weiß schon seit den 80ern, dass mit der parallelisierung Leistung verpufft
Das ist bei Serialisierung nicht anders. Nur in die andere Richtung und deutlich gravierender. Der Unterschied ist einfach, ILP ist aufgrund von Abhängigkeiten begrenzt. TLP hingegen hat noch einiges an Potenzial und kann gerade bei Partitionierung praktisch beliebig nach oben skalieren.

deshalb werden, bei gleicher theoretischer Maximalleistung weniger Cores mit mehr IPC immer gegen viele Cores gewinnen
Gewinnen wobei? Singlethreaded Workloads? Was soll das denn aussagen in der heutigen Zeit, wo Multicore Prozessoren schon lange zum Alltag gehören? Objektiv kann man nur Sachen wie maximale Performance, Energieeffizienz oder Flächeneffizienz bewerten. Und da werden idR kleinere Kerne mit weniger IPC gewinnen. Schau dir dafür einfach mal A53 und A57 an und was ARM dazu sagt. Mit gleichem TDP Budget auf gleicher Fläche holst du mit einem Cluster aus A53 Kernen mehr maximale Performance raus als mit einem Cluster aus A57 Kernen. Alles darüber hinaus ist abhängig vom jeweiligen Anwendungsfall und von den für ein CPU Design zur Verfügung stehenden Ressourcen.

Nur, was hat das alles mit einem 2-Moduler + CMT vs einen 2-Kerner + HTT zu tun? Beides hat gleich viele parallele Kapazitäten, nämlich 4 hardwareseitige Threads, implementiert über 2 physische Kerne. Und wir reden hier auch nicht von Low Power vs High Performance Kerne. Beides ist ähnlich dimensioniert.

AMDs Ansatz war der falsche, das wissen sie selbst, es wurde ja schon angedeutet, dass man richtung Intels Ansatz gehen wird.
AMD sagte lediglich, dass Bulldozer kein "Game Changer" war. Und das hat man eher in einem wirtschaftlichen als technischen Kontext gesagt. Man hat nie was davon gesagt, dass CMT der falsche Ansatz war. Eben weil er nicht falsch war, sondern nach wie vor richtig ist. Und nein, es wurde auch nirgendwo angedeutet, dass man Richtung Intels Ansatz gehen würde. Das wurde schon vor langer Zeit verworfen. Dieses Gerücht basiert lediglich auf wilden Spekulationen von WCCFtech. Genauso gibt es Spekulationen in andere Richtungen. AMD wäre selten dämlich, Intels Ansatz zu verfolgen. Erstens ist deren Ansatz nicht erstrebenswert. Wir haben oft genug gesehen, dass HTT kaum der Rede wert ist im Clientmarkt. Intel ist bei Haswell ja eher Richtung CMT gegangen, indem man das Backend für mehr Ausführungseinheiten verbreitert hat. Was nicht im Sinne von SMT ist, wo man die Auslastung der vorhandenen Ausführungseinheiten durch zusätzliche Threads zu maximieren versucht. Aufgrund dieser CMT Annäherung konnte Haswell in einigen Fällen aber sichtbar besser skalieren. Spricht umso mehr für AMDs Ansatz. Und zweitens könnte sich AMD nicht damit absetzen. Es hilft ihnen herzlich wenig, etwas gleichwertiges zu Intel zu liefern. Nur wenn sie was besseres liefern können, hätten sie auch realistische Chancen, wieder Boden gut zu machen, gerade bei Servern. Und CMT ist genau das, was an Bulldozer besser ist. Löse dich mal von der CMT Implementierung in Bulldozer. Da geht noch deutlich mehr. CMT kann auf unterschiedlichste Weise umgesetzt werden. Es würde mich jedenfalls nicht wundern, wenn wir in K12 / Zen eine weiterentwickelte Variante davon wiedersehen. Das heisst ja nicht, dass diese ohne SMT daherkommt. Auch Bulldozers CMT nutzt SMT.

Deine Meinung in allen Ehren, aber genau das ist der größte Irrglaube seit Bulldozer-Launch.
Ein Irrglaube ist nur, dass Bulldozer für Spiele entwickelt worden wäre. Bulldozer wurde mit Fokus auf Server entwickelt. Das ist eine Tatsache. Deshalb sollte man im Clientmarkt von K12, in welcher Form auch immer, erst mal nicht zu viel erwarten. Auch K12 wird primär für Server entwickelt. Zen wiederum mag eine andere Geschichte sein. Darüber weiss man bisher einfach noch zu wenig. Der sollte zwar auch viel K12 DNA mitbringen. Aber gut möglich, dass sich zB die Multithreading Implementierung grundlegend unterscheidet.

Und schon so oft widerlegt, dass es nicht mehr feierlich ist, im Serverbereich liegt man noch viel weiter zurück als im Gamingbereich und es wurde auch schon wiederholt von AMD gesagt, dass das eben NICHT so ist.
Auch das wurde nie gesagt. Es wurde von AMD immer klar betont, dass Bulldozer mit Fokus auf Server entwickelt wurde. War bei Barcelona, Shanghai und Istanbul nicht anders. Nur weil AMD Desktop Derivate davon rausgebracht hat, die eben auch Spieler nutzen, ändert das am Fokus doch nichts. Thuban zB war ursprünglich gar nicht geplant und wurde als Notlösung geboren, um was brauchbares gegen die 8 Threads von Nehalem im Desktopmarkt zu haben. Wie auch immer, kannst dir ja nochmal entsprechende Ankündigungen aus der Bulldozer Zeit reinziehen, wie dieses Video. "Servers and High Performance Client" zeigt eigentlich recht eindeutig, in welche Richtung es gehen sollte. Erstens Server und zweitens High Performance Clients. Und mit letztem sind nicht Spieler gemeint, die meistens mit ein oder zwei Lastthreads rumdümpeln, sondern jene Clients, die auch sämtliche Prozessorkapazitäten ausnutzen können. Es wird explizit über CMT Throughput Vorteile und Server Workloads gesprochen. Das sollte klar verdeutlichen, wo der Fokus bei der Entwicklung lag. Nämlich beim Gesamtdurchsatz und nicht bei singletheaded Performance. Verstehe gar nicht, warum das einige bis heute leugnen, obwohl die Fakten klar auf der Hand liegen und schon lange bekannt sind.

Und im Serverbereich lag man beim Launch keineswegs zurück. Das ist ein Märchen. Tatsache ist, dass AMD die Serverplattform seit geraumer Zeit nicht mehr aktualisiert. Das aktuelle Opteron 6300 Package ist mittlerweile über 2 Jahre alt. Und selbst das war mehr oder weniger nur ein neues Stepping mit einigen Überarbeitungen am Kern (Bulldozer -> Piledriver). Am grundlegenden Orochi Design hat sich ansonsten nichts wesentliches geändert. Und das wurde vor über 3 Jahren gelaunched. In der Zeit hat Intel nicht nur die Serverplattform deutlich aktualisiert und modernisiert, sondern vor allem auch neuere Designs mit mittlerweile bis zu 18 Kernen nachgeschoben. Während AMD eben nach wie vor bei maximal 8 Modulen in einem Package festhängt. Zum einen, weil die Fertigung kaum mehr zulässt. Ursprüngliche Pläne, zB für 22nm, mussten gecancelt werden. Zum anderen, weil die Ressourcen für ein neues Design fehlen. Deshalb liegt man im Serverbereich mittlerweile zurück. Und nicht, weil Bulldozer nicht mit Fokus auf Server entwickelt wurde. ARM bietet da aber mittlerweile ressourcenschonendere Möglichkeiten, um eben auch neue Designs anzugehen. Wie gesagt, Seattle ist quasi ein ARM Orochi + Zusatzfeatures. Und welch Überraschung, der ist ans Servervolk adressiert, nicht an Gamer. ;)
 
Und im Serverbereich lag man beim Launch keineswegs zurück. Das ist ein Märchen.
DAS ist ein Märchen.
Sieh dir die ganzen Opteron Launches an - weniger Leistung bei mehr Verbrauch. Ineffizienz ist kritisch, Bulldozer war nie eine "Sercer-CPU" sondern war einfach ein Fail-Design.
Lies dir halt die 2011er und frühern 2012er Tests durch bei Anandtech, PCPER usw durch wenn du schon alles so viel besser weißt.

Aber es geht hier um GPUs also BTT
 
Zuletzt bearbeitet:
wenn einen die aio-wakü nicht stört,
die da voraussichtlich dranhängen soll,
könnten die referenzkarten richtig gut werden diesmal
 
Vielleicht kommt ja noch was anderes ansonsten werde ich wohl in den sauren Apfel beißen müssen und Wasser in meinen Rechner lassen.
 
Sieh dir die ganzen Opteron Launches an - weniger Leistung bei mehr Verbrauch.
Welche ganzen Opteron Launches? Es gab einen einzigen ursprünglichen Bulldozer Opteron Launch, 2011. Und da lag Bulldozer keineswegs zurück. Bulldozer ist und war immer ein Serverdesign. Das ist lange bekannt und wurde von AMD auch immer wieder klar betont. Alles andere sind Märchen.

Lies dir halt die 2011er und frühern 2012er Tests durch bei Anandtech, PCPER usw durch wenn du schon alles so viel besser weißt.
Klar, Inteltech ist natürlich DIE Adresse für AMD Reviews. Vor allem wenn dann so unsinnige Sachen wie Cinebench getestet werden, die für Serverprozessoren ja so aussagekräftig sind. :wall:

Aber stimmt, hier geht es um die kommenden GPUs. Also btt.
 
Ich schätze den Benchmark als fake. Die sind ja gerade an der Besprechung, ob 20 oder 28 Nanometer.

Welcher hersteller gibt sseine wahre schon so früh bekannt? Der Benchmark aus irgend einem chinesischem Forum, ich werd wahnsinnig :'D

ABWARTEN. NVIDIA.Ist *******, das steht fest!!! Ein Saftladen der in die Ecke k.O. Gehauen werden muss.
 
die frühen benchleaks kommen fast immer aus china,
vor allem die guten, die hinterher zutreffen

die karten werden dort schließlich produziert,
sodass dort auch die chance besteht, an ein vorserien sample zu kommen

so stell ich mir das jedenfalls vor :)
 
Einfach mal abwarten. Vielleicht kommt die Karte ja aufgrund der aktuellen "NV RAM Problematik" schneller als wir denken. ;)
 
Zurück