AMD Ryzen: Im August verkauften sich AMD-Prozessoren bei Mindfactory besser als die von Intel

Richtig müsste es lauten:
"Wer im hier und jetzt richtig Dampf rein für Gaming will, dem das Geld eh egal ist und wer sich in 2 Jahren eh einen neuen Rechner kauft/aufrüstet, der braucht net lange überlegen und greift zum 7700K"

Und noch richtiger müsste es lauten:
"Wer im hier und jetzt richtig Dampf rein für Gaming will, der kauft sich einen Ryzen 1600(X) und das Geld was er gegenüber einem 7700K spart investiert er in einer besser Grafikkarte"

Nur das alles über einer 1070 ziemlich overkill wäre für einen 1600(X) und rausgeschmissenes Geld. Zumindest wenn wir rein vom Gaming sprechen. Leider.

Da bist du mit skylake/kabylake noch immer besser bedient bzw mal sehen was bei coffe lake so leistungstechnisch so rauskommt...
 
Nur das alles über einer 1070 ziemlich overkill wäre für einen 1600(X) und rausgeschmissenes Geld. Zumindest wenn wir rein vom Gaming sprechen. Leider.

Da bist du mit skylake/kabylake noch immer besser bedient bzw mal sehen was bei coffe lake so leistungstechnisch so rauskommt...
Kannst du mir dann erklären warum dann meine CPU immer idelt und meine GPU ständig auf 100% rumeiert?



Schön das AMD mitliest bei deutschen News, wenn auch indirekt:D
 
Kein Wunder, AMD hat seine Munition verschossen also kaufen AMD Kunden jetzt fleißig Ryzen ein, und Intel Kunden werden jetzt keinen Kaby Lake Quad Core mehr kaufen sondern eher auf den Coffee Lake 6 Core warten der jetzt im Oktober(?) kommt.

Quatsch AMD hat ihr Pulver längst nicht verschossen, wenn Intel mit Ihrem 18C kommt muss AMD doch nur in die berühmte Schublade greifen und den TR 32C rauskramen.^^
 
Die Aussage war die CPU kann die GPU nicht auslasten, meine GPU ist es. Erklärung? Die Aussage war schlecht pauschalisierter blödsinn
 
Quatsch AMD hat ihr Pulver längst nicht verschossen, wenn Intel mit Ihrem 18C kommt muss AMD doch nur in die berühmte Schublade greifen und den TR 32C rauskramen.^^

Es gibt es gewisse Grenze wo vieles nicht mehr skaliert.
z.B. ich als Streamer habe eine Grenze wo der von mir eingesetzte x264 (h264 software encoder) keine weiteren Kerne mehr auslastet. Ich glaube das waren 24 Threads, müsste ich mal genauer nachsehen.

Es ist gut das AMD den CPU-Markt wieder aufmischt. Ich erwarte aber Produkte, die Sinn machen für die Verbraucher, nicht irgendwelche Experimente wie den FX-9xxx :-)
Klar, gibt immer Fälle wo es halt ein bissl mehr sein darf, aber die meisten Leute wollen ja keine 20 Kerne, die wissen damit nix anzufangen. Selbst Enthusiasten - wohin mit der Leistung? Auch Youtuber etc. brauchen den Spaß nicht, es sei denn die kriegen das von einem Sponsor, dann nehmen die das natürlich :-P

Ich erwarte also das jetzt 6 und 8 Kerne im Mainstream fest angekommen sind und die Preise für diese immer weiter sinken werden bis sie etwa bei 300€ für OC-Modelle ankommen (also 1800X Nachfolger noch günstiger etc).
Das hat viele positive Effekte, vor allem ist das ein richtiger Tritt in die Hintern der Entwickler - die müssen für Mehrkernoptimierung sorgen egal wie, da sie ansonsten zusammengefaltet werden von der Community die immer mehr Kerne besitzt. Das ist unser größtes Problem aktuell was diese Prozessoren angeht - die Kerne sind da, die Last - nicht.
 
die müssen für Mehrkernoptimierung sorgen egal wie, da sie ansonsten zusammengefaltet werden von der Community die immer mehr Kerne besitzt. Das ist unser größtes Problem aktuell was diese Prozessoren angeht - die Kerne sind da, die Last - nicht.

Wieso so pauschal? Es ist viel wichtiger was für eine Leistung man am Ende im Spiel hat. Alles auf Kerne verteilen, nur weil sie da ist, kann ja auch nicht in unserem Sinne sein? Sonst haste nachher Games die ohne wirklichen Mehrwert nur auf zig Threads laufen, einfach weil sie da sind. Toll. Da sind mir Spiele wie Destiny 2 lieber, die offenbar sehr gut optimiert sind und aus weniger Kernen mehr rausholen. "Schlecht optimiert" wird viel zu häufig bei Spielen verwendet, nur weil nicht viele Kerne genutzt werden. Dieses Denken halte ich für nicht zielführend und gefährlich. Am Ende zählt was rauskommt.
 
Genauso schlagartig wie AMD an Intel vorbeigezogen ist?


Die größten Witzfiguren sind die, die anderen ihre Freude nicht gönnen.

Wo ist AMD an Intel vorbei gezogen? Im PCGH Mittel liegt ein Ryzen 1800X nochmal wo? ;) Nicht falsch bverstehen, Ryzen ist gut, aber wenn jemand in erster Linie zockt, ist AMD nirgends an Intel vorbei gezogen, sondern lediglich wieder dichter dran...
 
Wo ist AMD an Intel vorbei gezogen? Im PCGH Mittel liegt ein Ryzen 1800X nochmal wo? ;) Nicht falsch bverstehen, Ryzen ist gut, aber wenn jemand in erster Linie zockt, ist AMD nirgends an Intel vorbei gezogen, sondern lediglich wieder dichter dran...

AMD ist mit der Waferausbeute von über 80% klar an Intel vorbeigezogen. AMD kann somit ihre Prozessoren viel günstiger anbieten. Intel hat eine harte Nuss zu knacken, da sie sich derzeit mit 10nm schwer tun und AMD in absehbarer Zukunft auf eine 7nm Fertigung zurückgreifen kann. AMD hat Intel noch nicht überholt, aber die Weichen sind gelegt und der Zen Zug rollt.
 
@ cryon1c: Du befindest dich im Internet, Ironie und Sarkasmus-Detektor immer auf maximale Leistung. Volle Energie auf die "Geht mir am Hintern vorbei" Schilde und Kurs Richtung "Lächeln auf den Lippen". :-)

Ich wollte damit zum Ausdruck bringen, dass vor Ryzen immer auf die hochgeheime und überall bekannte "Intel's (Schub)Lade" hingewiesen wurde, welche Intel nur öffnen muss um den mächtigen Konter Intels, auch bekannt als Intelszorn, heraus zu holen um dem (CPU)Schläfer nieder zu strecken. ^^

Ach was gab es da für ein Shitstorm wenn man dreist behauptete Intel habe sein Pulver verschossen und es gibt keine Schublade... die guten alten Zeiten ;-)
 
Diese 7nm oder 10nm Angaben kannst du eh vergessen. :schief: So einfach lässt sich das eben nicht pauschalisieren. Da spielen viele verschiedene Größen mit rein. Einfach nur zu sagen 7nm bei Hersteller A ist besser als 10nm bei Hersteller B ist besser ist Käse.

10 nm lithography process - WikiChip

[FONT=&quot]Due to marketing names, geometries vary greatly between leading manufactures. Although both TSMC and Samsung's 10nm processes are slightly denser than Intel's 14nm in raw logic density, they are far closer to Intel's 14nm than they are to Intel's 10nm (e.g., Samsung's metal pitch just 1 nanometer shorter than Intel's 14nm).[/FONT]

3DCenter

Standard-Node-Trend-Semiwiki-July-2017.png
 
@ cryon1c: Du befindest dich im Internet, Ironie und Sarkasmus-Detektor immer auf maximale Leistung. Volle Energie auf die "Geht mir am Hintern vorbei" Schilde und Kurs Richtung "Lächeln auf den Lippen". :-)

Ich wollte damit zum Ausdruck bringen, dass vor Ryzen immer auf die hochgeheime und überall bekannte "Intel's (Schub)Lade" hingewiesen wurde, welche Intel nur öffnen muss um den mächtigen Konter Intels, auch bekannt als Intelszorn, heraus zu holen um dem (CPU)Schläfer nieder zu strecken. ^^

Ach was gab es da für ein Shitstorm wenn man dreist behauptete Intel habe sein Pulver verschossen und es gibt keine Schublade... die guten alten Zeiten ;-)

Intel ist langsam, träge und langweilig geworden. Natürlich haben die nicht alles verfeuert. Aber durch fehlende Konkurrenz wird man halt auch müde und nicht motiviert - das eigene Zeugs verkauft sich sowieso saugeil weil es nichts anderes gibt. Es gibt jetzt aber was, deswegen muss Intel halt auch mal die Backen zusammenkneifen und sich bewegen. Druck ist in dem Umfeld immer gut, unter Druck entstehen neue, bessere Produkte - was man als Verbraucher genießen sollte :-)

Wieso so pauschal? Es ist viel wichtiger was für eine Leistung man am Ende im Spiel hat. Alles auf Kerne verteilen, nur weil sie da ist, kann ja auch nicht in unserem Sinne sein? Sonst haste nachher Games die ohne wirklichen Mehrwert nur auf zig Threads laufen, einfach weil sie da sind. Toll. Da sind mir Spiele wie Destiny 2 lieber, die offenbar sehr gut optimiert sind und aus weniger Kernen mehr rausholen. "Schlecht optimiert" wird viel zu häufig bei Spielen verwendet, nur weil nicht viele Kerne genutzt werden. Dieses Denken halte ich für nicht zielführend und gefährlich. Am Ende zählt was rauskommt.


Natürlich meine ich damit eine gute Optimierung. Aber eben auch die Tatsache das wir mehr Kerne haben - die sollen nicht flachliegen, die sollen benutzt werden. Das bringt uns endlich nen Schritt weiter, zu Spielen wo es kein CPU-Limit an sich gibt. Damit die Leute in allen Lagen, auf allen Auflösungen usw. das maximum aus der GPU pressen können - so wie es sein soll. Egal ob 1080p 240Hz, 1440p 144Hz oder sogar 4K 144Hz (wobei bei letzterem eh die GPU limitiert egal wie man sich anstellt :D )
 
Diese 7nm oder 10nm Angaben kannst du eh vergessen. :schief: So einfach lässt sich das eben nicht pauschalisieren. Da spielen viele verschiedene Größen mit rein. Einfach nur zu sagen 7nm bei Hersteller A ist besser als 10nm bei Hersteller B ist besser ist Käse.

10 nm lithography process - WikiChip



3DCenter

Anhang anzeigen 968391

Das Samsung/TSMC aufgeholt hat, lässt sich ziemlich eindeutig pauschalisieren:

By either the old or the new standard node values Intel has lost their multiyear density lead over the foundries. Based on the new more accurate standard node value the average node value for Intel's 10nm and the foundry 7nm processes is 8.05nm and all four companies are within a 0.5nm standard node value of each other.

... und wohl gemerkt. AMD hat Intel jetzt schon mit einer besseren Ausbeute überholt.
 
Zurück