AMD Kaveri: Erste Leistungswerte der Steamroller-Architektur aufgetaucht

AMD hat eine ziemlich gute APU (130 Watt Klasse) für 399 Euro im Angebot - sogar inklusive schickem Gehäuse. Allerdings ist der Windows- und Linux-Support bisher eher dürftig. :ugly:

Das Ding nennt sich übrigens Playstation 4.

Naja,
die CPU ist eher ein achtfacher Atom und mit dem Takt kann man CPU mäßig keinen Blumentopf gewinnen. Die IGP ist hingegen hochgenial, allerdings müßte man sie auch mit einem würdigen Prozessor kreuzen.

Als Moderator sollte die Neutralität eingehalten werden! Die Iris Pro ist gedopt durch den L4! :D

Wie sie das hinbekommen haben ist relativ egal, ob mit L4, L5 Cache oder mit Alientechnologie aus Area 51, es ist das Ergebnis das zählt.

Erinnert mich an die Core2Quad Zeiten als die AMD Jünger darauf bestanden das ihr Phenom I die einzige 4 Kern ist. Genutzt hat es nichts, der Phenom I wurde plattgemacht.


Aber auch nur in deiner Welt?

Guck dir doch die neuen Grakas von AMD an, wenn ein entsprechender Ableger zur CPU gepackt wird sieht intel kein Land mehr. Nur wird das aufgrund eines zu großen DIEs nicht wirschaftlich verkaufbar sein, da der CPU Part nicht schnell genug ist bzw. sie mit der Fertigung hinterher sind.

Aber da du ja so auf der Iris Pro rumhackst, wer kauft sich bitteschön so eine teure CPU und nimmt diese dann zum zocken? Kein Mensch...

Und wenn Intel den 4770R mit Flüssigstickstoffkühlung eine Taktverdoppelung spendiert sieht AMD kein Land mehr...

Ich persönlich lebe allerdings in der realen Welt und nicht in der des "hätte könnte wäre" und da ist AMD (zumindest im PC Bereich) leider auch in diesem Punkt ins Hintertreffen geraten.

Mit einer HD 4000 konnte ich einige Zeit lang ganz gut spielen, da der 4770R gut 3 mal schneller ist sehe ich keinen Grund warum man nicht darauf zocken sollte.

Rein technisch, schon klar. :haha: Rein technisch ist AMD bezüglich iGPU nach wie vor Intel klar überlegen. Im Gegenteil, ich denke mit GCN und hUMA wird sich der Vorsprung noch weiter vergrössern. Das einzige, womit Intel im Moment dagegen hält, hat mit Technik herzlich wenig zu tun. Es ist nichts weiter als ein Brute-Force Ansatz, viele Einheiten auf viel Chipfläche. Deutlich begünstigt durch die 22 nm Fertigung.

1: Die Benchmarks sagen etwas anderes
2: Sie müssen erstmal zeigen das sie durch eine neue Implementierung soviel mehr an Leistung rausholen können
3: Verfolgt AMD den Brute Force Ansatz die Leistung durch immer mehr Shadereinheiten zu steigern. Intel hatte hingegen den Mut/die Weitsicht/das Geld mit dem zusätzlichen Speicher zu experimentieren und hat nun einen Ansatz aus der Speicherfalle zu entkommen der AMD fehlt.
4: Sind mehr Shader und ROPs seit weit über 10 Jahren der Ansatz um mehr Leistung zu erzielen
 
Zuletzt bearbeitet:
Es ist doch völlig wurscht, ob diese Brute-Force Lösung von Intel jetzt knapp an AMDs iGPU vorbei zieht oder nicht. Der Aufpreis macht das Ding am Markt völlig sinnfrei. Da kann man sich für den selben Preis ne obere Mittelklasse GPU zu einer Variante ohne diesen Iris Pro dazustecken und hat 3x mehr Leistung. Bei AMD bekommt man die iGPU quasi geschenkt, hat bessere Treiber und mehr Features.

Auch das Ultrabook Argument verfehlt den Sinn. Wir erinnern uns, die Teile bleiben in den Regalen liegen gerade wegen des hohen Preispunktes. Da muss man natürlich, weil man ja Intel ist, noch ne extra teure CPU/iGPU reinpacken. :wall:

Die Kosten für die Entwicklung hätten sie sich sparen können. Oder war es ihnen das wert mal wieder den (minimal) Längsten zu haben?

@Topic
30% mehr Int-Leistung/Takt sind bei mir gerne gesehen. Die 15% weniger Flop-Leistung sind ein fader Beigeschmack aber nicht so gewichtig. Und evtl bekommen sie es ja doch noch hin, haben ja noch etwas über einen Monat Zeit. Kann Kaveri kaum erwarten, warte gefühlt schon zwei Jahre auf meinen neuen MiniPC. DDR4 wäre natürlich noch das Sahnehäubchen, aber länger als März/April möchte ich nicht mehr warten.

MfG
 
Bei einem Vergleich ähnlich dimensionierter und ähnlich teurer Chips trifft die Aussage von DieLutteR uneingeschränkt zu.

Ja nur war (in meinem ursprünglich zitierten Post) nicht die Rede von "ähnlich dimensioniert" oder "ähnlich teuer", die Aussage wurde ganz allgemein in den Raum geworfen - wenn dort gestanden wäre "Bis 150$ ..." hätte ich überhaupt keine Einwände gehabt, denn einen i3 mit Iris pro gibt es aktuell nicht. Ich wäre dir also sehr verbunden, auch wenn ich weiß das dir das bekanntermaßen schwer fällt, wenn du nicht Dinge in einen Antwortpüost mischt von denen nicht die Rede war, danke.

Die Iris Pro ist gedopt durch den L4! :D

Ja und? Das ist eine technische Sache und hat auch nichts mit neutralität zu tun. Es ging ja nicht um das "Wie" oder um das "um Wieviel" sonder um das "Das".

Aber da du ja so auf der Iris Pro rumhackst, wer kauft sich bitteschön so eine teure CPU und nimmt diese dann zum zocken? Kein Mensch...

Wie schon mehrmals erwähnt, es ging nicht um das "Wie viel".

Gibts eig. auch schon bessere Infos zu Kaveri, diese hier finde ich doch etwas arg dürftig
07%20sm_B-%28.gif

Nicht wirklich viel, ausser das man ihn heuer nicht mehr kaufen können wird.

Im Gegenteil, ich denke mit GCN und hUMA wird sich der Vorsprung noch weiter vergrössern.

Was hUMA tasächlich bringt wird sich noch zeigen - wenn man so manche Kommentare in Foren liest, scheint es als ob die Marketingabteilung von AMD diesbezüglich gute Arbeit gemacht hat.
 
Gut, das ist jetzt wieder was anderes, die Diskussion über das "Wie" - hier wählt intel einen anderen zugang, eben über den "L4" Cache. Klar mag es aus technischer Sicht ein wenig Holzhammer mäßig sein, aber wenn man es kann, noch dazu ohne TDP und Verbrauch durch die Decke gehen zu lassen, warum nicht?

huma macht ansätze das speicheranbindungsproblem zu lösen. letztendlich wird aber für die igpu nichts anderes übrigbleiben als schnellen speicher einzufügen (über den ringbus oder pcie-lanes ist mir schnuppe), die frage ist halt wie groß der sein muss. ich kann nicht verstehen warum amd nicht ein paar pcie-lanes für ein oder zwei module gddr5 abdrückt. intel wird vermutlich auch in der zukunft die bessere fertigung haben, aber amd sollte trotzdem was machen.

Naja,
die CPU ist eher ein achtfacher Atom und mit dem Takt kann man CPU mäßig keinen Blumentopf gewinnen. Die IGP ist hingegen hochgenial, allerdings müßte man sie auch mit einem würdigen Prozessor kreuzen.

haha und mit welchem haha, ohne entsprechende fertigung (nur als hinweis, intel ist meilenweit vorne und der rest hinkt mindestens genauso weit hinterher wie tmsc bzw glofo) wäre das ein allein aus abwärme sicht ein todesstoß für jede konsole, lass uns mal nicht davon sprechen das es ein minus geschäft wäre, usw usf.

btt
@pcgh
wenn ihr die dinger habt messt bitte mal die (praxis) average-perfomance/mm^2 und vergleicht sie mit phenom2. für ein silent sys könnten die dinger taugen (vor allem wegen der igpu) aber minimum cpu-perfomance wär für mich p2.
 
Zuletzt bearbeitet:
huma macht ansätze das speicheranbindungsproblem zu lösen. letztendlich wird aber für die igpu nichts anderes übrigbleiben als schnellen speicher einzufügen.

Da beißt sich die Katze aber in den Schwanz - weil hUMA bringt nur was wenn alle in denselben Speicher schreiben(und bei einem "non hUMA" System gerade etwas von einem zum anderen Speicher kopiert werden müsste). Der aktuelle RAM ist aber für die GPU vergleichsweise langsam, da schafft im Momment nur eigener GPU Speicher ("L4 Cache") abhilfe - dann bringt hUMA aber nichts mehr, weil erst wieder kopiert werden muss.
 
naja iwie hast du recht und iwie nicht.
theoretisch sehe ich 2 lsg:
1) größerer cache
2) ähnlich wie bei der xbox one, eine weitere (externe) cache stufe, eigtl ebenfalls möglich solange schnell genug angebunden. zu bearbeitende instruktionen können ja im näheren cache gespeichert werden während die nächsten schritte im l3/l4 cache vorsortiert werden.

p.s. amd hat das ohne huma ja schon einmal gemacht, nannte sich sideport-ram
 
Zuletzt bearbeitet:
1) größerer cache

Was aber aktuell nicht machbar ist - als vergleich haben die 128MB der IRIS Pro 84mm2 - Da sind wir aber noch weit weg von einer Größe die Kopiervorgänge unnötig macht oder zumindest verringert - Größen von etwa 1GB oder mehr als Cache sind aktuell und in näherer Zukunft utopie.

2) ähnlich wie bei der xbox one, eine weitere (externe) cache stufe, eigtl ebenfalls möglich solange schnell genug angebunden. zu bearbeitende instruktionen können ja im näheren cache gespeichert werden während die nächsten schritte im l3/l4 cache vorsortiert werden.

Ja, wäre möglich, bedeuted aber wieder Kopiervorgänge. Die xBox setzt ja laut berichten auch nicht auf hUMA. Die PS4 schon - wobei hier von entsprechenden (notwendigen) anpassungen bei der Software gesprochen wird. Das wird auch das Thema bei den APUs - ohne entsprechende Software läuft gar nichts.
 
Ich werde mir einen Lan-Rechner daruas zusammen schustern.
Hatte ich schon lange vor gehabt.
Und da es nicht ganz alltäglich zugehen wird, wird es natürlich ein Tagebuch geben :)
 
lass mich ehrlich sein, es ist mir egal wie sie grafikleistung steigern, hauptsache sie tuns. naja zu huma, das ist ein konzept für die zukunft, genauso wie 64bit.
 
Es ist doch völlig wurscht, ob diese Brute-Force Lösung von Intel jetzt knapp an AMDs iGPU vorbei zieht oder nicht. Der Aufpreis macht das Ding am Markt völlig sinnfrei. Da kann man sich für den selben Preis ne obere Mittelklasse GPU zu einer Variante ohne diesen Iris Pro dazustecken und hat 3x mehr Leistung. Bei AMD bekommt man die iGPU quasi geschenkt, hat bessere Treiber und mehr Features.

1: Zunächst mal ist es AMD die eine Brute Force Lösung verfolgen und damit an ihre Grenzen kommen, Intel hat hingegen etwas neues ausprobiert und damit gewonnen.
2: Deine Mittelklasse Karte und die CPU steckst du erstmal in einen Mini PC und siehst ihn beim schmelzen zu. Für solche sachen ist der 4770R wesentlich besser geeignet, zumal er mit seinen 84W 16% weniger braucht als die AMD Gegenstücke
4: Du bekommst die GPU nicht geschenkt, die CPUs sind 20-40€ teurer als CPUs ohne IGP. Bedenkt man das ein i7 4770R in etwa im gleichen Preisbereich ist wie ein i7 4770 (ohne,K,S,T was auch immer) bekommt man eher dort die IGP geschenkt (was natürlich auch quatsch ist.

haha und mit welchem haha, ohne entsprechende fertigung (nur als hinweis, intel ist meilenweit vorne und der rest hinkt mindestens genauso weit hinterher wie tmsc bzw glofo) wäre das ein allein aus abwärme sicht ein todesstoß für jede konsole, lass uns mal nicht davon sprechen das es ein minus geschäft wäre, usw usf.

Ich habe geschrieben man MÜSSTE
Da dies allerdings nicht möglich ist da die Jaguarkerne nur je 3mm² brauch und ein ausgewachsener FX 8000 alleine schon über 300mm² braucht ist eine APU mit dieser Grafik für Desktopsysteme vorerst nicht drin.
 
1: Die Benchmarks sagen etwas anderes
2: Sie müssen erstmal zeigen das sie durch eine neue Implementierung soviel mehr an Leistung rausholen können
3: Verfolgt AMD den Brute Force Ansatz die Leistung durch immer mehr Shadereinheiten zu steigern. Intel hatte hingegen den Mut/die Weitsicht/das Geld mit dem zusätzlichen Speicher zu experimentieren und hat nun einen Ansatz aus der Speicherfalle zu entkommen der AMD fehlt.
4: Sind mehr Shader und ROPs seit weit über 10 Jahren der Ansatz um mehr Leistung zu erzielen
1. Nein, tun sie nicht.
2. Stimmt, das muss Intel erst mal zeigen. AMD hat das schon, siehe VLIW <-> GCN.
3. Nein. AMD ist mit GCN ja einen Schritt zurückgegangen, was Shader pro mm² betrifft. Dafür arbeiten diese deutlich effizienter. Eine zusätzliche Cache Stufe ändert auch an der grundlegenden Architektur nicht viel. Übrigens kommt bei AMD mittelfristig Stacked Memory. Prototypen waren schon vor geraumer Zeit zu sehen. Da fehlt AMD also nichts.
4. Ja, aber nicht der einzige.

Ausserdem ändert das nichts daran, dass die Iris Pro trotzdem ein überteuerter Brute Force Ansatz ist und damit als Vergleich zu AMDs aktuellen APUs recht wenig taugt. Alleine das 4C+GT3 Die ist grösser als Trinity/Richland. Und das bei theoretisch mehr als doppeltem Flächenvorteil aufgrund von 22 nm. Wenn man Intels IGP technisch beurteilen will, abseits von Preis und Marktsegment, macht eigentlich nur ein Vergleich mit den 2C+GT3 Modellen Sinn. Diese und Trinity/Richland besitzen jedenfalls ein ähnliches Transistorbudget, ~1,3 Mrd, und stellen gleich viele CPU Threads zur Verfügung. Alles andere wird nur durch stark abweichende CPU oder GPU Kapazitäten verwässert.


Ja nur war (in meinem ursprünglich zitierten Post) nicht die Rede von "ähnlich dimensioniert" oder "ähnlich teuer"
Aber so war es augenscheinlich gemeint. Und was anderes macht ja auch wenig Sinn. Auch du hättest bei deiner Antwort mehr differenzieren können. Hast du aber genauso wenig. Also bitte zeige jetzt nicht mit dem Finger auf andere und was diese hätten schreiben sollen.

Was hUMA tasächlich bringt wird sich noch zeigen - wenn man so manche Kommentare in Foren liest, scheint es als ob die Marketingabteilung von AMD diesbezüglich gute Arbeit gemacht hat.
Das zeigt eher, dass einige hier im Forum anscheinend keine Ahnung haben oder nur gegen AMD wettern wollen. Als Programmierer kann ich dir versichern, hUMA ist eine kleine Revolution. Man sollte aber nicht erwarten, dass nun in jeder Anwendung gigantische Performancegewinne rausspringen. Das kann natürlich je nach Anwendung passieren, wenn dort Speichertransfers zwischen CPU und iGPU bisher der Flaschenhals waren. Das sollte aber nicht die Regel sein. hUMA ist vor allem für die Softwareinfrastruktur ein grosser Fortschritt. Ein weiterer Schritt, um auch TCUs in Zukunft so einfach zu programmieren, wie das bisher bei LCUs (CPUs) der Fall war. Übrigens steht auch bei Intel eine hUMA ähnliche Technik auf dem Fahrplan. Nur wird das noch etwas dauern. Aber klar, alles nur Marketing. :schief:
 
Man sollte aber nicht vergessen, dass Steamroller eine FPU Pipe weniger besitzt. Der reine Durchsatz kann also durchaus niedriger ausfallen.

Häh? Seit wann hat Steamroller/Kaveri irgend eine Änderung an der FPU-Einheit? Höre ich zum ersten mal von. Und eine weitere Reduzierung erscheint arg unwahrscheinlich.


Also ich bin, wie bereits erwähnt, am meisten auf die iGPU Leistung gespannt. Wenn da jetzt tatsächlich noch was an CPU und vor allem GPU Leistung kommt und mit etwas Glück Mantle nicht enttäuscht, gibt's die ersten APUs auf denen sogar aktuelle AAA Titel wie BF4 ordentlich laufen könnten.

Nicht mal BF3 läuft auf CPUs dieser Leistungsklasse ordentlich, von der GPU-Leistung mal ganz zu schweigen.
Auf niedrigsten Einstellungen mag man solche Spiele starten können (schließlich versuchen die meisten Entwickler, auch auf den weit verbreiteten Intel IGPs Kunden zu erreichen), aber mit AAA hat das Endergebnis dann nichts mehr zu tun. Jedenfalls nicht nach Maßstab 2013. AAA 2003 Niveau ist vielleicht drin.


Kriege ich die für einen günstigen Preis?

Willst du hier über technische Möglichkeiten des nächsten Jahres diskutieren oder über CPUs in einem Marktsegment, in dem du dir vermutlich eh nur Hardware für ein Office-dritt-System kaufen würdest? ;)


huma macht ansätze das speicheranbindungsproblem zu lösen.

Seit wann das denn? huma hat quasi gar keinen Einfluss auf die Speicherlimitierung beim Rendering. Was damit einfacher wird, sind gpGPU-Aufgaben, die eine enge Zusammenarbeit erfordern. Aber beim Rendering ist der Austausch zwischen CPU und GPU winzig im Vergleich zu dem, was das Rendering selbst erfordert.
Nur so zur Erinnerung: Der Wechsel von 8 GB/s PCIe2 auf 16 GB/s PCIe3 (+100% !) zur Beschleunigung der CPU-GPU-Kommunikation hat bei Stand-Alone-Karten nicht mehr Einfluss, als eine Speicherübertaktung von z.B. 20% bei einer r290x, die von 320 GB/s ausgeht. Das ist ein Verhältnis von 1:40 und huma bringt bei der 1 nur eine gewisse Entlastung. Wenns hoch kommt sind das 1% der Gesamtbandbreite.

letztendlich wird aber für die igpu nichts anderes übrigbleiben als schnellen speicher einzufügen (über den ringbus oder pcie-lanes ist mir schnuppe),

PCIe hat recht hohe Latenzen. Und besagte 16 GB/s sind umgekehrt auch nicht viel, ein DDR3 2000 Riegel kommt auf den gleichen Wert. (+50% Speicherbandbreite wären natürlich ein netter Boost, aber eine langfristige Lösung ist das nicht)

die frage ist halt wie groß der sein muss. ich kann nicht verstehen warum amd nicht ein paar pcie-lanes für ein oder zwei module gddr5 abdrückt.

Siehe oben. Und hast du schon mal GDDR5-Module gesehen?


naja iwie hast du recht und iwie nicht.
theoretisch sehe ich 2 lsg:
1) größerer cache
2) ähnlich wie bei der xbox one, eine weitere (externe) cache stufe, eigtl ebenfalls möglich solange schnell genug angebunden. zu bearbeitende instruktionen können ja im näheren cache gespeichert werden während die nächsten schritte im l3/l4 cache vorsortiert werden.

Ein Cache ist ein speicher, der sortiert nichts. Und jeder Zugriff zum sortieren würde zu Lasten der Bandbreite gehen, die fürs Rendering zur Verfügung steht. Zwischenspeicherstufen sollten immer den gesamten Speicherbedarf einer Verarbeitungsebene vorhalten können (z.B.: Die Festplatte kann das ganze Spiel speichern, so dass man nicht online-streamen muss. Der RAM kann die Daten eines Levels vorhalten, so dass man die HDD nicht braucht. Der VRAM fängt die Zugriffe für eine Szene/ein Bild ab, der Cache die wiederkehrenden Zugriffe innerhalb einzelner Shaderroutinen.
Würde man nicht so exzessiv mit bildschirmweiten Effekten arbeiten, könnte man bei tilebased-Rendering sehr von einer Zwischenstufe zwischen VRAM und bisherigem GPU-internen Cache profitieren (siehe KyroII, die mit mickriger Speicherbandbreite z.T. High-End-Karten zerlegte), aber das ist heute eben nur noch eingeschränkt möglich.
 
Naja,
die CPU ist eher ein achtfacher Atom und mit dem Takt kann man CPU mäßig keinen Blumentopf gewinnen. Die IGP ist hingegen hochgenial, allerdings müßte man sie auch mit einem würdigen Prozessor kreuzen.

*hust*
Du hast den BF4-Vergleich PC/PS4 hier auf PCGH gesehen?
Sieht nicht aus, als ob das ne schwache CPU in der PS4 wäre bzw. wird sie halt optimal genutzt.
Entscheidend ist, was hinten rauskommt :ugly:
 
*hust*
Du hast den BF4-Vergleich PC/PS4 hier auf PCGH gesehen?
Sieht nicht aus, als ob das ne schwache CPU in der PS4 wäre bzw. wird sie halt optimal genutzt.
Entscheidend ist, was hinten rauskommt :ugly:

Im Vergleich zu heute gängigen Desktop-CPUs ist sie schwach. In der Konsole mag das keine große Rolle spielen, weil es wenig OS-Balast gibt und die Anwendungen sauber auf die vier Kerne optimiert werden, ggf. schlicht auf die iGPU ausweichen. Aber mit klassischen Dekstopanwendungen, die durch einen Mainthread limitiert sind bzw. auch in Zukunft nicht auf das vorhandensein einer GCN-Einheit in der CPU optimiert werden können, dürfte sie zu kämpfen haben.



Thx. Ist mir tatsächlich entgangen.
Aber da es nur eine der was-soll-denn-der-scheiß-Integer-Pipes ist, sollte das keine großen Auswirkungen auf die reale Leistung haben. Sollten die Messungen, die dieser News zu Grund liegen, tatsächlich nenneswert Last dieser Art erzeugt haben, sollten die Tester mal ihre Methoden durchdenken.
Für uns bleibts so oder so dabei: Wir wissen zuwenig über den Test, um Rückschlüsse aus den Ergebnissen für die Praxis zu ziehen.
 
Und wenn Intel den 4770R mit Flüssigstickstoffkühlung eine Taktverdoppelung spendiert sieht AMD kein Land mehr...

Und das hat genau wie viel mit meinem Post zu tun? :schief:
Zumal, mein Post alles andere als unrealitisch ist...

Ich persönlich lebe allerdings in der realen Welt und nicht in der des "hätte könnte wäre" und da ist AMD (zumindest im PC Bereich) leider auch in diesem Punkt ins Hintertreffen geraten.

Wenn ich deinen ersten Satz anschaue, lebst du scheinbar in einer reinen Fantasiewelt... Einfach mal bei den GPUs vorbeischaun, dann weißt du was AMD technisch kann und das ist nichts mit hätte, könnte, wäre:schief:

Mit einer HD 4000 konnte ich einige Zeit lang ganz gut spielen, da der 4770R gut 3 mal schneller ist sehe ich keinen Grund warum man nicht darauf zocken sollte.

Es gibt auch noch Leute die nicht nur Tetris spielen ;)
Und es wird sich wohl kaum jemand eine 500€ CPU zum zocken kaufen und dazu keine vernünftige GPU stellen...

Wie schon mehrmals erwähnt, es ging nicht um das "Wie viel".

Es ging dir ja um die reine Leistung, daher finde ich meine Frage auch berechtigt, wer kauft sich eine CPU für 500€ fürs daddeln und zockt dann mit der IGPU?
Daher macht es imo auch wenig Sinn, da so eine iGPU anzubieten, da es doch einen sehr bescheidenen Anwenderkreis gibt, der sich hauptsächlich Fanboys schimpft.

mfg

Bärenmarke
 
Eine Pipe wird gestrichen.
Okay, das hatte ich jetzt auch nicht auf dem Schirm.

Allerdings sind die einzigen für reinen Floating Point-Code relevanten Instructions, die die Pipeline beherrscht, AND, ANDN und XOR, wenn ich das richtig sehe. Davon dürfte es aber nur wenige geben, das meiste sollten Multiplikationen und Additionen sein - und dann sind da wohl auch noch ein paar Move-Instructions, die haben aber keine Ausführungslatenz. Weiß also nicht ganz, welche Rolle die eine Pipe da spielt.

Trotzdem weiß ich nicht so ganz, was sich AMD davon verspricht, ich meine, gerade mit AVX2 dürften Packed Integer-Instructions auch allmählich in der Software ankommen... und die theoretische (!) FP-Rohleistung von nem FX-83xx ist pro Takt immer noch nicht höher als die eines Phenom II X4.
 
...wer kauft sich eine CPU für 500€ fürs daddeln und zockt dann mit der IGPU?
Daher macht es imo auch wenig Sinn, da so eine iGPU anzubieten...

Wer sich das (und auch für was er das) letztlich kauft oder nicht spielt doch keine Rolle. Das die Preis- und Produktgestaltung der Hersteller manchmal mitunter fragwürdig ist wurde doch schon angesprochen. Darf jetzt über Leistung und Technik nicht mehr unabhängig von Preis- und Produktpolitik des jeweiligen Herstellers diskutiert werden? Vor allem weil, ich widerhole mich, im von mir ursprünlgich zitierten Posts, von Prudukt, Preis- oder Fertigungseinschränkungen keine Rede war sondern eine allgemeine Aussage getätigt wurde.
 
Wer sich das (und auch für was er das) letztlich kauft oder nicht spielt doch keine Rolle. Das die Preis- und Produktgestaltung der Hersteller manchmal mitunter fragwürdig ist wurde doch schon angesprochen. Darf jetzt über Leistung und Technik nicht mehr unabhängig von Preis- und Produktpolitik des jeweiligen Herstellers diskutiert werden? Vor allem weil, ich widerhole mich, im von mir ursprünlgich zitierten Posts, von Prudukt, Preis- oder Fertigungseinschränkungen keine Rede war sondern eine allgemeine Aussage getätigt wurde.

Wenn sich ein Diskussionsverlauf nicht zu deinen Gunsten entwickelt ist dir das wohl nicht so genehm ;)

Ich hab deine Aussage sehr wohl verstanden, aber wenn du die Technik ansprichst wirst du dich damit wohl abfinden müssen. Vor allem halt auch mit der Tatsache, dass man sich da noch mit anderen Gegnern rumärgern muss, wenn man sich in dem Preisbereich befindet. Es vergleicht doch auch niemand nen Twingo mit einem 911, man muss da schon eine Basis der Vergleichbarkeit schaffen und wenn man sie bricht, sollte man auch nicht darüber verwundert sein, wenn auch andere zutreffende Argumente in den Ring geworfen werden;)
 
Wenn sich ein Diskussionsverlauf nicht zu deinen Gunsten entwickelt ist dir das wohl nicht so genehm ;)

Nein, ist es nicht, weil ich es nicht leiden kann wenn auf Basis meiner Aussagen Punkte in die Diskussion eingebracht werden die nie Thema waren und darauf aufbauen gegen meine Aussagen argumentiert wird. Du kannst argumentieren mit was du willst, aber bitte nimm dann nicht Aussagen anderer, in denen es um etwas ganz anders ging, als Basis.

... man muss da schon eine Basis der Vergleichbarkeit schaffen

Die Basis war auch gegeben, es ging um die absolut schnellste iGPU, unabhängig von Preis und Produktpolitik. Das ist nichts anderes wie wenn du beispielsweise die absolut schnellste Desktop CPU finden willst um zB ein Ranking zu erstellen, wie es bei diversen Tests gemacht wird, da wird dir auch nichts anderes übrig bleiben als eine 900€ mit einer 200€ CPU zu vergleichen.

Wieviel dann jemand bereit ist zu zahlen oder eben nicht kann dann jeder selbst entscheiden. Nicht bei jedem endet das Budget genau dort wo das Portfolio eines bestimmten Herstellers endet.

Ich hoffe damit ist das Thema nun endlich durch un wir können uns dem eigentlichen widmen.
 
Zurück