Intels Kaby Lake-G mit Vega-GPU soll unter Nvidias Geforce-Partner-Programm leiden

Nochmal, Vega ist faktisch ganz klar kein "Fail".

Die Vega 56 kann problemlos mit der GTX 1070 mithalten und übertrifft sie mittlerweile, dank Treiberoptimierungen, schon in vielen Spielen.
Mit Undervolting ist der Stromverbrauch auch gut und man kann nochmal gute 50 Watt vom Stromverbrauch unter Last weg bekommen und die Karte läuft dann sogar noch schneller, weil sie nicht so schnell ins PT rennt. Wurde auch schon oft bewiesen, musst du also gar nicht versuchen mit zugehalteten Ohren zu leugnen.

Die Vega 64 ist suboptimal, mehr aber auch nicht.

8GB sind absolut ausreichend für 1070 und 1080 Konkurrenten.

Insofern lügst du also daher.

Ich hab mir im Dezember eine gebrauchte GTX 980 Ti für 350€ gekauft, aber nur, weil es eben nie eine Custom Vega 56 für 350~400€ gab. Ansonsten wär das eben, objektiv betrachtet, eine richtig gute Karte.

Du behauptest also allen Ernstens, dass AMD einen Chip größer als den G102 baut um den GP104 einzuholen? In welcher Traumwelt lebst du eigentlich?
Wie war es noch gleich "Poor Volta", alleine dieser Marketingspruch sagt alles über die ursprünglichen Ziele AMD's aus.
Vega wurde eindeutig als Gegner einer Ti konzipiert, dieses Ziel haben die AMD Ingenieure aber nun einmal eindeutig verfehlt.
Ach ja der Stromverbrauch ist nie gut, die ganzen Optimierungen kann man ebenfalls an Nvidia Karten durchführen, was hier gerne außer Acht gelassen wird.
 
Du bist ziemlich negativ eingestellt was Ryzen betrifft. Die Architektur steckt noch in den Kinderschuhen und kann trotzdem sehr gut mithalten, das Optimierungspotential ist noch enorm und Ryzen 2 mit 7 nm wird zu Intel ziemlich sicher komplett aufschließen - wenn nicht sogar überholen.

Ich bin halt skeptisch, weil ich die Hochzeit von AMD mit dem Usprungs-Athlon/Duron miterlebt habe. Damals hatte AMD sogar einen wesentlich größeren technischen Vorsprung als Intel mit dem Pentium 4. Vergeigt haben sie es trotzdem aus einer Vielzahl an Gründen.

Zukünftige Architekturen und Verbesserungen in allen Ehren, doch ich bezweifle die Leistung wird linear steigen. Die Leistungssprünge werden immer kleiner. Der Sprung auf die Pseudo <10-Nanometer Fertigung ist auch noch nicht in trockenen Tüchern. Da kann noch einiges passieren.

Ryzen 2 hat mich bisher auch nicht wirklich überzeugt. Versteh mich nicht falsch, das sind gute Prozessoren. Doch sind sie gut genug? Mir fehlt da einfach der "muss-ich-kaufen"-Reflex. Dasselbe habe ich übrigens auch bei Intel.

Unter Zugzwang ist ganz klar Intel, die Core Architektur ist alt und ausgereizt. Zusätzliche Performance kann nur noch über Takt und schnelleren Ram erkauft werden.

Der Zugzwang betrifft alle mit x86-Lizenz. Ich glaube nicht, dass sich dieser Monolith weiter bis ewig halten kann. Früher später kommt ein Umschwung zu etwas völlig anderem. Wer weiß schon was noch in der Core-Architektur steckt. Darüber habe ich augehört zu fantasieren.

Bei dem mehr Takt + schnellerer RAM Argument wäre ich übrigens auch vorsichtig. Das ist nämlich genau das was Zen ausmacht. Ohne schnellen HBM2 oder hochgetakteten DDR4-Speicher bricht Ryzen extrem ein. Bei den aktuellen Hochpreisen für RAM ist das ein NO-GO.

Das soll nicht heißen, die Core Architektur ist schlecht - ganz im Gegenteil. Sie ist sehr gut, robust und weißt keine wirklichen Schwächen auf. Trotzdem ist sie ausgereizt und es wird höchste Zeit für einen Nachfolger ... irgendwann um 2020 rum.

Ich würde eher sagen die Fertigungsverfahren sind physikalisch nahezu ausgereizt. Nach 10nm/7nm habe ich kein Vertrauen in die Fertiger. Noch nicht einmal Intel und das will etwas heißen.

Der Paradigmenwechsel wird kommen und er muss es auch. Vielleicht gibt es zusätzliche 1-2 Generationen. Danach müssen sowohl Ryzen als auch die Core-Architektur beweisen was wirklich in ihnen steckt.

Für die GPUs gilt natürlich dasselbe. Bis 2020 kann man mit etwas Wagnis noch spekulieren. Danach ist aber ein großes Fragezeichen.
 
Zuletzt bearbeitet von einem Moderator:
Ich würde eher sagen die Fertigungsverfahren sind physikalisch nahezu ausgereizt. Nach 10nm/7nm habe ich kein Vertrauen in die Fertiger. Noch nicht einmal Intel und das will etwas heißen.

Der Paradigmenwechsel wird kommen und er muss es auch. Vielleicht gibt es zusätzliche 1-2 Generationen. Danach müssen sowohl Ryzen als auch die Core-Architektur beweisen was wirklich in ihnen steckt.

Für die GPUs gilt natürlich dasselbe. Bis 2020 kann man mit etwas Wagnis noch spekulieren. Danach ist aber ein großes Fragezeichen.
Dann müssen die sich was anderes ausdenken. Haben ja genug kluge Köpfe.
 
Und du?

Dass das PR bescheuert war, hat nichts mit der Faktenlage zu tun. Aber das weißt du ja auch selber.

Eine GTX 1070 ist bereits sehr gut optimiert und bekommt durch UV max. 20 Watt noch weg, wenn du Glück hast.

Tschüss.

Komisch du gehst gar nicht auf meine Aussagen ein, aber so etwas wie "Tschüss." bringt man eben auch nur, wenn man mit den Argumenten am Ende ist.
 
Intel ist selbst mit der Core-Architektur heute noch immer deutlich schneller als AMD mit Zen.
Ein 6-Core Intel ist ungefähr gleichauf mit einem AMD 8-Core, der "nur" in einigen Anwedungen besser ist.
Selbst bei Corel Draw, der nach wie vor besten Bildverarbeitungssoftware, ist Intel deutlich besser.

Und bald kommt ein echter 8-Core von Intel im Mainstream.
Spätestens dann setzt Intel AMD, trotz neuer ZEN-Architektur, mit der alten Core-Architektur wieder ordentlich unter Druck.

1. Ist ein Vergleich basierend (allein) auf der Kernanzahl komplett sinnbefreit. Oder vergleichst du die Ryzen auch mit einem ARM-Octacore? Es gibt genau 2 Vergleichspunkte für den Kunden: Preis und Leistung im persönlichen Anwendungsgebiet. Oder generell eben P/L.
2. Sofern sie ihn nicht verlöten wird der Intel Mainstream 8-Kerner mMn eher ein Reinfall. Mit 2 zusätzlichen Kernen werden sie nie die Taktraten des 8700K erreichen ohne dass sie bei den thermischen Eigenschaften was deichseln. Das heißt er wird in Spielen wohl schlechter abschneiden. War bei SL-X ja auch schon der Fall. Bezweifle stark, dass sich der von den Ryzen stark absetzen wird.
3. "Selbst bei Corel Draw, der nach wie vor besten Bildverarbeitungssoftware, ist Intel deutlich besser." Einfach ein Anwendungsbeispiel rauspicken bei dem die Intel CPUs besser abschneiden ist halt auch eigenartig. Bei Anwendungen gilt das selbe wie bei Spielen, können sie die Kerne ausnutzen ist ein Ryzen schneller als ein CL, der Rest hängt vom Anwenderverhalten ab. Bei BOINC , Handbrake und Co. sind die extra Kerne bei mir spitze. Bei MeVisLab könnte ich den Computer aus dem Fenster werfen weil die Bilder nur auf einem Kern verarbeitet werden...
 
Komisch du gehst gar nicht auf meine Aussagen ein,

2 von 3 Aussagen kommentiert ist bei dir also "nicht auf meine Aussagen eingehen".
Ich muss also davon ausgehen, dass dein Egoismus unermesslich ist, wenn du so eingeschnappt bist, nur weil ich nichts zu der Chipgröße gesagt habe.
Oder ich muss davon ausgehen, dass du meine Sätze ignorierst. Oh mein Gott, du machst also genau das gleiche, was du mir vorwirfst? Ja aber sowas auch!

Wie du merkst, sind wird jetzt an dem Punkt, an dem es gar nicht mehr um das Thema geht, sondern nur noch um unser Beleidigt sein.
Deshalb auch das Tschüss, weil es sinnlos ist. Ich dachte, das wäre offensichtlich. Naja, was solls, lassen wir es doch einfach.
 
Ich würde die Vega Architektur hardwareseitig auch nicht Fail bezeichnen. Ich denke, dass AMD die Treiberseite nicht in den Griff bekommen hat. Aber mal ganz ehrlich, ich bin auch frustriert. Ich würde zu gerne Nvidia den Rücken kehren. Der Wechsel von einer 1080 Ti zu einer RX 64 wäre leider ein ziemlich großes Downgrade. Ich denke, ich werde es aber dennoch machen und mit geringern Quality Settings leben.
 
Der Wechsel von einer 1080 Ti zu einer RX 64 wäre leider ein ziemlich großes Downgrade. Ich denke, ich werde es aber dennoch machen und mit geringern Quality Settings leben.

Oder du nutzt die 1080 Ti noch, bis sie die Grätsche macht oder es ein aufrüstwürdiges Produkt von AMD gibt. Das Geld dafür hat Nvidia eh schon.

Zum Thema: Dass Nvidia im Mobilmarkt, wo Effizienz besonders wichtig ist, gut dasteht, ist verständlich. Ich glaube nicht daran, dass sich Hersteller davon abhalten lassen würden, die KBL-Gs zu verbauen, wenn sie sich davon was versprechen würden. Kann ja andere Gründe haben: schwierige Kühlung, weil alles an einer Stelle oder Kostenpunkt für die Leistungsklasse, immerhin ist das kein High-End, nutzt aber HBM.

Ein Single-Chip-SoC mit CPU, GPU und RAM wäre aber mal eine interessante Sache, wobei ich nicht weiß, wie gut sich Logik und DRAM gleichzeitig belichten lassen. Aber wenn man das hinkriegen würde, könnte man bestimmt ganz nette Ein-Chip-Systeme herstellen. Halt nicht zum zocken.
 
Nochmal, Vega ist faktisch ganz klar kein "Fail".

Die Vega 56 kann problemlos mit der GTX 1070 mithalten und übertrifft sie mittlerweile, dank Treiberoptimierungen, schon in vielen Spielen.

Eigentlich solle es Vega mit der GTX 1080Ti aufnehmen können, bzw. sogar mit Volta, welcher 50% schneller ist als die GTX 1080Ti. Herausgekommen ist ein Chip, der in etwa dem GM 200 entspricht, was Stromverbrauch und Leistung betrifft. Von daher kann von einem Griff ins Klo sprechen.

Mit Undervolting ist der Stromverbrauch auch gut und man kann nochmal gute 50 Watt vom Stromverbrauch unter Last weg bekommen und die Karte läuft dann sogar noch schneller, weil sie nicht so schnell ins PT rennt.

Das kann man aber auch mit Maxwell und Pascal machen, dann sieht die Sache wieder anders aus.
 
Ich würde die Vega Architektur hardwareseitig auch nicht Fail bezeichnen. Ich denke, dass AMD die Treiberseite nicht in den Griff bekommen hat.

Vega krankt hardwareseitig vor allem an Ineffizienz. Der schrecklich hohe Stromverbrauch und die Wärmeabgabe für die Performance pro Chipsgröße ist einfach unterirdisch. Mit Treibern hat das nichts zu tun!

Wenn man Vega dann untertaktet oder kleiner dimensioniert feht dann letztendlich die Rohleistung. Das ist in meinen Augen auch ein Problem von Kaby-Lake-G. Es braucht sicher noch 2-3 Generationen bis etwas aus diesem Konzept wird. Bis dahin dreht sich das Leistungskarusell jedoch weiter!

Aber mal ganz ehrlich, ich bin auch frustriert. Ich würde zu gerne Nvidia den Rücken kehren. Der Wechsel von einer 1080 Ti zu einer RX 64 wäre leider ein ziemlich großes Downgrade. Ich denke, ich werde es aber dennoch machen und mit geringern Quality Settings leben.

Wie @empy gesagt hat. Warte noch! Vega ist aktuell nicht der große Wurf. Das würde auch niemandem helfen außer das eigene Ego zu befriedigen. Ich hoffe AMD kommt wieder auf die Beine und bringt würdige Nachfolger. Aktuell sagen die Gerüchte für 2019 und 2020 leider genau das Gegenteil.

Außer Zen + EPYC gibt es nur technisch negative Aussichten. Der Abschwung von der RTG wird demnach nicht von GPP oder Intel kommen.

Die 1180 wird nie im Leben 50% schneller als die 1080T Ti sein...

Er redet wahrscheinlich von der 1180 Ti. Da sind durchaus +50% drin. Die 1180 hingegen wird eher um das alte Flagschiff 1080 Ti landen mit ... +10-20% vielleicht hier und da.
 
Ein 6-Core Intel ist ungefähr gleichauf mit einem AMD 8-Core, der "nur" in einigen Anwedungen besser ist.
Coffee Lake hat unbestritten eben den Taktvorteil. Stock liegen auf allen Kernen mindestens 4,3 GHz Boosttakt an, bei Last auf 2 Kernen sind es schon 4,6 GHz. Da muss Ryzen wegen der Taktwall einfach den Hut nehmen. In Anwendungen die voll mit Kernen/Threads skalieren, werden aber alle 8C/16T CPUs den 8700K in die Tasche stecken. Da hilft auch der Takt nichts mehr. Bei Spielen kennen wir ja den Grund: der Ringbus. Spiele lieben niedrige Latenzen, kein anderer Interconnect kann so niedrige Latenzen vorweisen wie der Ringbus. Aber auch der hat seine Grenzen, je mehr Kerne es zu verbinden gilt umso ineffizienter/langsamer wird der Ringbus. Bei Skylake-EP/-X hat sich Intel nicht ohne Grund davon verabschiedet. Das Mesh krankt in seiner jetzigen Form noch an erhöhten Latenzen, was insbesondere bei den LCC CPUs zum Tragen kommt. Ich bin mir aber ziemlich sicher, dass sich ähnlich wie AMDs Infinity Fabric mit etwas Optimierung noch einiges aus dem Mesh rausholen lässt.
 
Zurück