Es wurde nie was von Titan X Killer gesagt, das war ein Produkt der Community.
Aber das kann ich wohl auch 100 mal wiederholen, du kommst immerwieder mit dem Schmarrn, damit zu AMD schlechtreden kannst, immer dasselbe!
Im Prinzip gibt es zwei Möglichkeiten
a) du mißversteht es aus Versehen
b) du mißverstehst es mit böser Absicht
Wie dem auch sei, es ist alles gesagt, insbesonders das AMD das mit dem 8GB RAM hätte klar stellen sollen.
Auch nicht besonders viel mehr wie ne 980 Ti, insofern ist deine polemische Äußerung mit "irrer" Stromverbrauch schon lange widerlegt.
330W Maximalverbrauch in Spielen bei der Fury und 240W bei der GTX 980Ti, beides von PCGH, 90W oder 37,5% mehr würde ich schon einen irren Unterschied nennen.
Das mit einem 450W Netzteil ist schon ein wenig Grenzwertig, da hat man selbst ohne Fur Mark nur noch 120W Reserven, für eine Fury würde ich abhängig vom Prozessor eher ein Dark Power Pro 550W nehmen.
Was für ein Unsinn. Die Fury X lässt sich problemlos auch mit Luft kühlen, die Karten ziehen ja auch nicht mehr wie ne r9 390/390x, eher weniger.
Dank des größeren Chips und der raushängenden Kühlerfläche kann man die mit ~1,5 Sone kühlen, siehe Fury.
Es gab keine Wakü Pflicht, erzähl das deiner Oma.
Tatssache ist das man die Fury X nur mit den Referenzdesign bekommt da AMD andere Kühllösungen momentan nicht erlaubt. Die R9-290X verbraucht mit 280W laut PCGH gut 50W weniger, das ist schon ordentlich. Zwar könnte man die Maximale Leistungsaufnahme begrenzen, dann würde aber auch die Leistung sinken.
Es ging um die Stromaufnahme und da sind deine Angaben falsch.
Erklär das bitte PCGH, ich nehme deren Zahlen
E
Ich rede hier gar nix schön, ich verstehe nur nicht, warum du immer gegen AMD hetzen musst.
Spar dir das doch einfach.
Ich hetze nicht, ich sage nur wie es ist und da gibt es nunmal einen Haufen Dinge die AMD nicht passen, wenn mal Nvidia oder Intel Mist baut spreche ich das genauso an, so wie z.B. bei der GTX 970 die ich keinem empfehlen würde, außer er besteht auf einer Nvidia Karte. Bei CPUs sieht es leider Mau aus, die letzten Konkurrenzfähigen Phenoom II X4 CPUs sind auch schon 6 Jahre alt und der Athlon 64 mittlererweile gar 12. Eventuell kommt ja mit Zen etwas wirklich gutes, sodas man wie zu Pentium 4 Zeiten (bis auf ein paar Ausnahmen) keinen Intel mehr empfehlen kann.
Wenn AMD eine CPU liefert die nicht so schnell ist, dann heißt es bei dir "total versagt". Ist schon klar.
Wieso wendest du keine passende Wortwahl? Was soll der Aufriss?
Die revolutionäre Modulbauweise sollte alles im x86er Bereich ändern, einen fast vollwertigen Kern mit nur 10-20% mehr Chipfläche. Damit hätte AMD Quadcores zum Preis von Dualcores herstellen können und eben Octacores zum Preis von einfachen Dualcores. Damit hätte sich AMD auf 5 Jahre und mehr die technologische Führung gesichert, bei Intel haben sie schon gezittert, bereit mit dem 8 Kern Sandybridge E zu kontern. Herausgekommen ist eine CPU die viel Chipfläche hat (315mm² für den FX 8150 vgl. 239mm² beim i7 980X und 270mm² beim i7 2600K), viel Strom benötigt um auf eine hohe Taktfreqenz zu kommen damit sie überhaupt mit Intel CPUs mit halb soviel Kernen mithalten können. Tatsache ist nunmal das der Bulldozer der wohl größte Flop in der AMD Gerschichte, sowie bei den x86ern insgesamt war. Selbst AMD redet nichtsmehr schön, der Bulldozer kann leider nicht mit den Core i CPUs mithalten.
Nein, der ist mit 224bit angebunden, Addition gilt hier nicht.
Die Sache ist etwas komplex, ich habe auch einige Zeit und Hilfe von einem PCGH Redakteur gebraucht um den Aufbau zu kapieren:
Der Speicher ist mit 256 Bit angebunden, jedoch teilen sich 1024MB mit 64 Bit einen Controller der für 512MB mit 32 Bit vorgesehen ist. Solange der Controller nicht überlastet wird ist alles in Butter, wenn er allerdings an seine Grenzen kommt staut es sich dort zuerst. Vor Gericht würde Nvidia wohl durchkommen, der Speicher ist technisch mit vollen 256 Bit angebunden, allerdings nicht so wie man es erwartet hätte.
Welche Mythen sind denn bezüglich der Fury X verschwiegen worden? Kannst du das mal erklären?
Das mit den 8GB hätten sie klarstellen können und bei dem "übertakten als gäbe es kein Morgen" haben sie dreist gelogen, zu dem späten Zeitpunkt wußte wohl jeder mit dem Chip vertraute bei AMD das dies nicht stimmt.
Wen interessieren eigentlich Furmarkwerte? Ne Luftkühlung kann auch problemlos solche unsinnigen Tests überleben. DAs sieht man ja an der Fury, oder an den 390x Karten die bei weniger Chipfläche im Furmark genausoviel, wenn nicht mehr an Strom ziehen
.
Was hängst du dich an Furmark auf? Interessiert niemanden.
380W braucht keine andere Karte und der FurMark holt eben die maximale Leistungsaufnahme raus, wenn du etwas besseres kennst, immer her damit! Netzteile dimensioniere ich für den schechtesten Fall, also FurMark und Prime 95 plus Reserven, das habe ich schon gemacht seit ich den FurMark kenne.
Ja das sind riesige Nachteile. "Wasser" im PC. Ohje. Hab seit 2012 ne H60 Wasserkühlung und die geht immernoch anstandslos.
Und die Montage des Radiators hast du in 30 sekunden erledigt. Riesen Nachteil.
Das Problem ist das viele das als negativen Punkt sehen, ein Hersteller verliert durch eine AiO Kühlung mehr Käufer verliert als er gewinnt, deshalb gab es bisher alle Grakas immer noch als Luftversion und die AiO Kühlungen waren den Spezialversionen vorbehalten. Auf den Krieg GTX 980 Ti Vs Fury X werden sich die Kühler wohl so auswirken: eine Minderheit greift zur Fury X wegen der leisen Wakü, erheblich mehr wechseln zur GTX 980Ti oder zur Fury Non X und der großen Masse ist das wohl relativ egal, Hauptsache einigermaßen leise.
Du bist im Grafikkartenthread und fängst an von CPU´s zu reden.
Tja,
manchmal gleitet es eben ein wenig ab, woran du auch deinen Anteil hast da du drauf eingestiegen bist.
Da kaufst du dir Ende 2015 eine ca. 700,- eur teure Nvidia 980ti oder eine ca. 1000,- eur Titan die mit DX12 beworben wird,und dann muss man froh sein wenn sie unter DX12 nicht langsamer wird?!?
Das ist der nächste Fall in dem Nvidia seine Kunden bewusst Täuscht genau wie mit dem Speicherskandal der Nvidia GTX 970 bei der der Treiber es mit allen Mitteln vermeidet das mehr als 3,5GB Vram genutzt werden obwohl 4GB verbaut sind
Es gibt bis heute keine "echte" DX 12 Karte oder IGP, sogesehen belügen alle Hersteller die beaupten ihre Karten könnten DX 12 ihre Kunden.