PS4 und Xbox One: AMD-Hardwarenutzer profitieren von den neuen Konsolen - sagt AMD

Bis AMD Intel einholt, wird es noch sehr lange dauern. Klar ist AMD nicht schlecht, aber der Abstand zu Intel ist einfach zu groß. Trotzdem sind die CPUs von AMD kein crap, zum zocken sind die optimal. Ich hoffe das der Mann von AMD recht hat, und sie mit Intel auf Augenhöhe kommen, weil Wunder erwarte ich jetzt nicht.
 
Das war nicht das Thema, das Thema war, dass keine weiteren Produkte erscheinen und es ist falsch, wie schnell Warsaw wird, weiß auch niemand, also bitte etwas differenzieren.:schief:
Solange AMD 10 bis 15% auf den FX-8350 drauflegt, wird es ein konkurrenzfähiges Produkt im Preisbereich von 150 bis 200 Euro werden, das dürfte wohl außer Frage stehen.
Sorry, dann muss ich Warsaw einfach nicht als Nachfolger wahrgenommen haben, weil sich AMD schön ausschweigt was die Desktop Plattform angeht, hier ebenso Fakten fehlen, dass da garantiert noch etwas kommt und wenn etwas kommt es schon wieder auf einer veralteten Plattform erscheint und einer CPU die weiterhin deutlich mehr Wumms vertragen könnte.

Und die logische Schlussfolgerung wäre welche? Welche fehlende Anreize? APU? Fusion? HSA? Sind das keine Anreize?
Die Anreize waren natürlich die absolute Performance der CPU Angebote.
Wenn ich meine AMD Hardware wird stark davon profitieren, aber auf einmal keine neuen Kerne mit mehr als 2 Modulen im Angebot habe, dann hält sich das mehr als in Grenzen.
Excavator sieht auch eher danach aus, als ob es nicht gerade eine Bombe wäre, was absolute Performance angeht.
Gut aber das sind bisher nur Gerüchte.

Natürlich ist diese Aussage belegbar oder denkst du AMD würde einen Chip für den Consumer Markt bauen wollen, der 600mm² groß ist?:schief: Bulldozer hat 330mm² und AMD fehlen zudem Entwicklungskosten.
Intel baut aufgrund 22nm ähnlich große 16 Threader mit massiv viel L3, kann sogar noch eine Maske für einen 6Core entwerfen. AMD kann sich das a) nicht leisten und b) im 32nm Prozess wäre der Chip viel zu groß und für AMD unrentabel bei einem spekulierten Preispunkt von 200 Euro.
Ich würde auch hier eher logisch sagen, dass AMD gezwungen ist immer billiger anzubieten.
Dennoch, wenn du meinst in Zukunft ist doch nirgendwo etwas mit Fakten zu belegen, kann ich ja auch meinen das in Zukunft AMD seine Preisgestaltung ändert, wenn die Produkte auf einmal doch so viele Anreize haben werden und Konkurrenzfähiger wären.

Ich behalte es mir vor wegen irgendwelchen minimal Vorteilen irgendeinen Hersteller als besser anzusehen, das reicht mir argumentativ nicht.
Genauso könnte ich argumentieren, Nvidias Karten taugen nichts, weil sie keine ausgereiften Open CL Treiber haben und Tomb Raider immernoch nicht läuft und der 320 WHQL so fehlerhaft war dass Gerüchte aufkamen er würde Karten grillen.
Ich halte mich da eher an die gängigen Fachzeitschriften, die aktuell keine großen Unterschiede sehen, zumal man aus denen oft verlautet wurde, AMD habe das bessere Paket, unter anderem wegen der Spiele, des Preises, oder mehr V-ram fürs Geld, bessere Open CL Leistung etc..
Das kann man für jeden Hersteller ausfechten.
Minimale Vorteile aus deiner Sicht, aus meiner Sicht sind das insgesamt kleine Portionen die mich tendenziell eher Nvidia empfehlen lassen.

Warum ist das ein Problem? Kaveri wurde nie dafür gedacht in hohe Preisbereiche vorzudringen, außerdem halte ich maximal 2 bis 3 Module für die beste Lösung, anstatt sich mit möglichst vielen Kernen Chipfläche für eine potente IGP zu nehmen.
Ich war mehr als begeistert von der Idee mit 6 Kernen, welche offenbar wieder vergraben wurden und wenn die Idee am Ende des Jahres wieder auferstehen sollte, dann ist das zeitlich wieder eher als meh ein zu sortieren, aber wenn die Perf/Watt gut genug ist, könnte man es dennoch kaufen, immerhin hat man dann auch auf einer AMD Plattform eine aktuelle Featureliste und muss sich nicht mit AM3+ abgeben und riesigen Säufer CPUs.

Downsampling rechne ich Nvidia als Pluspunkt an, keine Frage, kann man es mit AMD nur eingeschränkt betreiben. Es gibt aber immerhin auch noch SGSSAA, was bei beiden Herstellern des öfteren funktioniert.
Das Frontend ist nicht schuld an der geringen Leistung beim tesselieren, sondern das Routingmanagement, wenn die Daten an die CU´s abgegeben werden, AMD hat starke Tesselatoren, etwas leistungsfähiger als die von Nvidia, das sieht man vor allem bei geringen Tesselierfaktoren, bei großen wird das Routing zum Problem und verstopft das System und es wird langsamer.
Es sind viele kleine Punkte die Nvidia eben für mich runder machen.
Ich habe PhysX, werde es immer haben, geben TXAA und generell mehr Optionen ist nicht soviel einzuwenden, auch wenn natürlich das nicht das optimalste Ergebnis zu Stande bringt.
Downsampling ist im Treiber sehr praktisch und einfach einstellbar, die ganzen Cracks können sich Stunden mit AA-Bits bei DX9 Spielen beschäftigen, da auch ständig Profillisten geführt werden, kann man sich da auch weniger mit beschäftigen.
Bi-AF funktioniert im Gegensatz zu GCN wie immer gut, klar auch das interessiert wieder nur höchstens alte Spiele, dennoch ist es immer hier und da die Gewissheit irgendwo etwas ruhiger zu haben.
Und natürlich liegt es auch am Front-End, die Work-Distribution kommt auch noch dazu.
Für sich genommen spuckt eine Engine bei AMD mehr raus und bei kleinen Faktoren ist man sogar ein gutes Stück besser, aber Nvidia hat viel mehr insgesamten Durchsatz.

TXAA ist Nvidia exclusiv, aber kein guter Glättungsmodi, sondern macht das Bild enorm unscharf, dafür aber ruhig.
Wenn du ein pendant zu TXAA suchst, kannst du auch MLAA aktivieren, beide Lösungen sind ähnlich, aber nur wirklich mit SGSSAA kombiniert schön und erstrebenswert, zudem sollte man vor allem bei TXAA noch nachschärfen oder eben auch bei MLAA.
Bei einigen Fällen zeigt es sich nicht so dramatisch vermatscht und auch wenn ich es auch nicht persönlich empfehlen könnte ist es gerade der einzige AA-Modi, welcher temporales Aliasing bekämpft, da hilft mir MLAA gar nicht.

Professionelle Gebiete wie Open CL und GPGPU von Desktopkarten? Fängst du jetzt an vom HPC Markt zu reden? Wo ist da nochmal die Relevanz bezogen auf Desktop Consumer GPU´s?
HPC, Workstations, CAD etc.
Relevanz keine direkte, nur wieder so eine Sache, wo ich wieder eher das Gefühl habe Nvidia geht die Sache runder an.

Nö, aber bezüglich Gaming und Gesamtpaket für den Gamer von Nvidia , fällt mir nur ein, dass Nvidia die Spieler mit ihrer hochpreispolitik ausgenommen hat und viele wie Statistiken bei PCGH zeigen, zur HD 7950 und HD 7970 gegriffen haben, vor allem weil die Reviews für die GTX 680 zu positiv ausgefallen sind.

Wenn du sagst tendenziell ist Nvidia besser, findest du jemanden der AMD für besser hält. Argumente lassen sich auf beiden Seiten finden und ich finde in letzter Zeit recht wenige die ausschlaggebend wären auf beider Seiten.
Bei AMD fallen mir jedenfalls aber weniger Argumente ein, die einem einen direkten Vorteil geben, exklusive Vorteile etc.
Ich hatte mir die Welt schon fast zu schön ausgemalt, PhysX verliert an Bedeutung, eine allgemeine GPGPU-Physik-Lösung kommt empor und alles wird schön für AMD und genau jetzt zeigt sich Nvidia wieder aktiver mit ihrem ganzen exklusivem Crap.
Als Kunde der frei über die groben Eigenschaften der GPUs sich ein Produkt kaufen möchte, ist man dann doch nicht so frei ins Lager zu wechseln, wenn man dann auf Dinge verzichten muss die man dort nicht findet.
Im Zweifel lege ich bei Nvidia mehr Geld für mehr Ram auf, aber Leute die ihr PhysX nicht unbedingt missen wollen, Downsampling jederzeit einsetzen können, weil man einfach sich idioten sicher ein Auflösungsprofil erstellt oder die 3DVision Guys werden einfach nicht ohne mit jeglicher Wimper zu zucken auf AMD wechseln, weil es bei AMD günstiger ist.

Für Randgruppen ist sicherlich auch Downsampling attraktiv.
Vermutlich weniger Rand, als sich als Privatmann über die GPGPU-Leistung in gewissen Programmen zu erfreuen oder die DP-Politik von AMD zu genießen.
 
Ich hätte nichts dagegen, wenn AMD wieder durchstartet. Die überteuerten nVidia Chips, die kein Vollausbau sind...

Wir brauchen dringend wieder eine ebenbürtige Konkurrenzsituation, sowohl im GPU als auch im CPU Segment!

AMD konkurriert doch quasi immernoch auf Augenhöhe im GPU Bereich :ugly: Mal im ernst, die HD7970 ist die für mich beste Grafikkarte seit langer Zeit. Geiles Teil, selbst jetzt hält sie noch mit :daumen: (der Leistungsunterschied ist wirklich so gering, dass man das so formulieren kann in meinen Augen.)
 
Die habe ich nicht. Woher auch?

Warum wird es dann von dir behauptet?

Bekannt ist nur, dass der GPU-Bereich von AMD in Q2 2013 gerade einmal eine schwarze Null machte.
Wenn sich die Bundles besonders positiv ausgewirkt hätten, dann wären deutlich weniger ( mehr ) GPUs verkauft worden.
Jup, der machte eine schwarze Null, besonders weil die Anreize fehlen neue AMD Karten zu kaufen, weil es längere Zeit keine neuen Produkte gab.
Der Preissenkungsimpuls dürfte da wieder mehr Geld in die Kassen spülen.

Wieviele GPU´s wären ohne Bundle verkauft worden?

Das kann man drehen und wenden wie man will, die schwarze Null bleibt.
Die welchen Informationsgehalt bzgl. des Erfolges des Bundles liefert?
Q2 ist immer ein Quartal in dem es weniger gut läuft, nur mal so als info am Rande.

Es war nur ein Erklärungsversuch von mir, basierend auf der Info dass selbst ein einzelnes Game im Bundle sehr teuer ist.
Nein, es war eine Behauptung ohne Beweis, die Auswirkungen des Bundles auf Verkaufszahlen lassen sich nicht verifizieren, zumal Enwicklungskosten für die neuen Grafikkarten ebenso reinspielen können.

ATI hatte immer guten Gewinn gemacht, und war ein wirtschaftlich sehr gesundes Unternehmen.
Nach immer guten Gewinn sieht mir das nicht aus.
Die operativen Ergebnisse lagen 2001 bis 2005 2mal über das ganze Jahr im Minus und die Gewinne beschränkten sich meistens auf 25 bis 50 Millionen, da hat sich also nichts geändert mit AMD, außer dass AMD noch kein Minus mit der Grafiksparte im Jahr erreicht hat.:schief:

ATI TECHNOLOGIES Bilanz GuV | Kennzahlen | Umsatz | Gewinn | finanzen.net

Genau diese Situation hatte ich befürchtet, als AMD ATI gekauft hatte.
Genau diese Situation ist nicht eingetreten.

Hab doch selber beide Karten, warum sollte ich dann die eine oder andere absichtlich schlecht machen sollen?

Ich habe keine Ahnung.

Jetzt hast du gerade das Beispiel GTX 480/580 gebracht. :ugly:
Gegenbeispiel jeweilige Karte mit 3 GB RAM.
Ja und wo ist dein Argument, dass das Beispiel nicht gilt? Dein Argument gibt es nicht, nur den Verweiß out of Kontext es gäbe teurere Karten mit mehr Speicher, die dann das selbe kosten oder wie?

Glaub nicht das, wenn 3 gb der HD 7970 genutzt werden, man noch spielbare fps zum Wohlfühlen erreicht.
Aber wenn beispielsweise2,4 oder 2,5gb genutzt werden, kann ich mir das anhand früherer Beispiele von 2009 bis 2011 sehr gut vorstellen.
2GB sind bei einigen Spielen bei lediglich Full HD grade noch so ausreichend und bei einer Leistung einer GTX 770 auf HD 7970 ghz Niveau dürfte genug Leistungspotenzial auch für die nächsten 2 Jahre da sein.

Hast es als Plus für die Karte aufgezählt.
Ist es kein Plus, wenn man beim Kauf einer AMD Karte zusätzlich Spiele erhält?
Du hast unterstellt es habe etwas mit der Architektur zu tun, obwohl das nirgends stand.:ugly:

bzw. als DAS Verkaufsargument zur Rate gezogen.
Ich habe es nie als sehr gewichtiges Verkaufsargument dargestellt, das sieht man allein schon daran, dass es lediglich aufgezählt wird und nicht gesondert erwähnt wird.

Insgesamt schätze ich dich mal so ein, das du eigentlich weißt, was ich mit dem Thema genau gemeint hab.
Nein ich verstehe nicht, was das argumentative attackieren eines Strohmanns für einen Sinn haben soll.
 
Zuletzt bearbeitet von einem Moderator:
Engine bleibt Engine - wenn nicht Hersteller-gebundene Features wie TressFX oder PhysX eingesetzt werden, ist letztendlich alles eine Frage der Treiber - das sollten wir aus der jüngsten Vergangenheit doch gelernt haben^^ Die Frage des VRAM's erübrigt sich spätestens mit der Vorstellung der nächsten Generation von nV .. und bis die NextGen-Konsolen soweit sind, dass der aktuelle VRAM-Bedarf um ein vielfaches übertroffen wird, sind unsere aktuellen Karten bereits Geschichte .. denn die Launch-Titel werden alles sein, nur nicht NextGen - wie auch?! ;)
 
Wer hätte das gedacht? :schief:

Ist doch klar, wenn beide Konsolen von AMD kommen und die PC-Hardware von AMD sehr, sehr ähnlich ist (vor allem GPU), dass man mit AMD-Hardware in Zukunft wohl die besseren Karten hat.
Um darauf zu kommen, brauche ich die Aussage von AMD nicht. Dafür reicht eine durchschnittliche Intelligenz und logisches Denken aus.
Vor allem wenn man sich die Konsolenports der letzten Jahre anschaut, sollte klar sein, dass man bei neuen Titeln out of the box mit AMD-Hardware wohl deutlich besser gestellt sein wird.
Die Frage ist nicht ob, sondern wie stark sich das bemerkbar machen wird. Und das kann mir auch AMD zur Zeit nicht sagen :P
 
@Schaffe89
Wir werden grad ziemlich OT aber nun gut. Auf ein letztes: :D

Ja und wo ist dein Argument, dass das Beispiel nicht gilt? Dein Argument gibt es nicht, nur den Verweiß out of Kontext es gäbe teurere Karten mit mehr Speicher, die dann das selbe kosten oder wie?
Von nicht gilt war nicht die Rede, eher davon dass das eher nicht die Regel ist. ;)

Aber wenn beispielsweise2,4 oder 2,5gb genutzt werden, kann ich mir das anhand früherer Beispiele von 2009 bis 2011 sehr gut vorstellen.
2GB sind bei einigen Spielen bei lediglich Full HD grade noch so ausreichend und bei einer Leistung einer GTX 770 auf HD 7970 ghz Niveau dürfte genug Leistungspotenzial auch für die nächsten 2 Jahre da sein.
Hab doch extra dazu geschrieben und das weißt du garantiert auch, das bei Karten mit "nur" 2 GB nicht unbedingt gleich automatisch schluss ist, wenn die 2 gb erreicht werden. Siehe Nvidia. ;)
Einen wirklichen nutzen von 3 gb hast du halt momentan bei höheren Auflösungen bzw höhere AA Modi wie SSAA. Aber ob dann das zukünftige Game dann auch noch flüssig zu spielen ist, ist ja meist eine ganz andere Geschichte.
Aber auch das sagte ich schon bereits.

Ist es kein Plus, wenn man beim Kauf einer AMD Karte zusätzlich Spiele erhält?
Wenn man nur die jeweilige Karte mit einer anderen vergleicht, dann nein.
Du willst da eher in Richtung Preis-Leistungs Schiene rücken, das war aber nicht die Frage. :)

Du hast unterstellt es habe etwas mit der Architektur zu tun, obwohl das nirgends stand.:ugly:
Unterstellt hab ich nichts, so hab ich es persönlich nur verstanden. ;)

Ich habe es nie als sehr gewichtiges Verkaufsargument dargestellt, das sieht man allein schon daran, dass es lediglich aufgezählt wird und nicht gesondert erwähnt wird.
Du hast die Pluspunkte des jeweiligen Lagers aufgezählt, wo sich nun aufzeigt, das unsere beiden Meinungen klar voneinander driften.
Meiner Meinung nach, sollte man, wenn man 2 Lager Karten vergleicht und dessen Vorteile gegenüber des anderen aufzählt, auch bei der reinen Hardware bzw. ausführenden Software bleiben.
Aber ok, vielleicht siehst du das ja anders. Ist daher schwierig gerade dort auf einen Nenner zu kommen. ;)

Nein ich verstehe nicht, was das argumentative attackieren eines Strohmanns für einen Sinn haben soll.
Ein Gedanken- bzw. Meinungsaustausch sollte nichts mit attackieren zu tun haben, solang dies auch ordentlich geschieht, wo ich finde dass das auch so bisher bei uns geschehen ist. ;)
 
Zuletzt bearbeitet:
Das meinte ich ja, wenn jetzt absichtlich alle Games auf AMD Hardware hin optimiert werden und das andere Lager strikt vernachlässigt wird. ^^
:-_-:
Du kannst doch Entwicklern nicht verbieten, das Beste aus ihrer Software raus zu holen, indem Sie auf die entsprechende Hardware hin optimieren....

Nochmal. Das ist KEIN! unlauterer Wettbewerb.... AMD wird dafür keinen Cent ausgeben, sondern das liegt ganz im Interesse der Game-Developer. Die wollen auf die Konsolenhardware hin optimieren, was schon immer so war, und was auch immer so bleiben wird. AMD hat jetzt halt das Glück, dass die Konsolenhardware sehr sehr sehr ähnlich zu ihren APUs ist, und dadurch Synnergieeffekte mitgenommen werden. nVidi oder Intel können aber einfach noch größere Caches usw usw verbauen, um durch totschlagen mit Hardware, die Optimierungen für sich auch mit zu nehmen.

Das ist etwas KOMPLETT! anderes, als das was du sonst gemeint hast. Ich versteh wirklich nicht, wie man überhaupt auf so eine Idee kommen kann :ugly:

Hast du dir inzwischen überhaupt den Wiki-Link von mir durchgelesen? Das ist zwar nur oberflächlich, aber reicht hier völlig aus, um klar zu erkennen, dass das totaler Schwachsinn ist, was du da gerade versuchst dir aus den Fingern zu saugen.

Dass die ganzen Softwarehersteller eher AMDs Befehlssatzerweiterungen links liegen lassen, weil AMD einen zu kleinen Marktanteil hat, aber Intels Erweiterungen ziemlich schnell nutzen ist ja auch kein unlauterer Wettbewerb.

Das sind in dem Fall einfach freie Entscheidungen der Softwareentwickler. Unlauterer Wettbewerb wäre es erst, wenn man Sie zwingen würde, dass Sie die Befehlssatzerweiterungen der Konkurrenz nicht nutzen dürfen, oder keinen Support mehr erhalten usw usw. Genau wie auch der Intelcompiler früher mal AMD CPUs einfach nen beschissenen Codepfad vorgesetzt hat, obwohl Sie auchdie optimierte Version hätten verarbeiten können... DAS war auch unlauter.

AMD hat aktuell aber gar nicht die Position so was zu machen.

Wir reden hier die ganze Zeit, als hätte nur AMD APUs am Start, was ja gar nicht stimmt, ein Intel Core iX ist genauso APU wie ein A10.
Die Intels sind aber schon ziemlich anders im Vergleich zu den AMD-APUs. Intel hat da aber auch keinen wirklichen Druck. Wenn die wollen, nehmen die halt ein "paar" Dollar in die HAnd und sagen: "Da nimm und optimier mal auf meine Hardware..."

Das müssen Sie aber auch nur, weil Intels Hardware komplett weg ist was AMD teils macht, und Intel da eben auf Seiten der iGPU klar hinten dran ist, wenn man den eDRAM weglässt. Das kann man so einfach nicht vergleichen.

Intel sieht aber durchaus die Problematik, daher arbeiten Sie ja auch mit Game-Developern zusammen, also zahlen denen Geld und helfen ihnen bei der Entwicklung/optimierung, damit die SAchen eben auch auf ihrer Hardware laufen, bzw Zusatzeffekte eingebaut werden. War ja so bei irgend einem Rennspiel vor kurzem.

Engine bleibt Engine - wenn nicht Hersteller-gebundene Features wie [B]TressFX[/B] oder PhysX eingesetzt werden, ist letztendlich alles eine Frage der Treiber - das sollten wir aus der jüngsten Vergangenheit doch gelernt haben^^ Die Frage des VRAM's erübrigt sich spätestens mit der Vorstellung der nächsten Generation von nV .. und bis die NextGen-Konsolen soweit sind, dass der aktuelle VRAM-Bedarf um ein vielfaches übertroffen wird, sind unsere aktuellen Karten bereits Geschichte .. denn die Launch-Titel werden alles sein, nur nicht NextGen - wie auch?! ;)
TressFX ist KEIN! Hersteller-gebundenes Feature!!
 
Hab doch extra dazu geschrieben und das weißt du garantiert auch, das bei Karten mit "nur" 2 GB nicht unbedingt gleich automatisch schluss ist, wenn die 2 gb erreicht werden. Siehe Nvidia. ;)
Einen wirklichen nutzen von 3 gb hast du halt momentan bei höheren Auflösungen bzw höhere AA Modi wie SSAA. Aber ob dann das zukünftige Game dann auch noch flüssig zu spielen ist, ist ja meist eine ganz andere Geschichte.
Aber auch das sagte ich schon bereits.
BF4 kommt in ein paar Wochen, und wird mehr als 2 GB benötigen, um die vollen Details anzeigen zu können, und ne 7970/770/780 werden da nichtzu langsam für sein. Was schnelleres gibt es ja eigentlich nicht, außer bei AMD noch die zeitgleich kommende Geeration.

Das habe ich aber vorher schonmal gesagt, haste aber scheinbar geflissentlich ignoriert...
 
Die 3GB werden dieses Jahr noch einen Vorteil bringen.
BF4 kommt in ein paar Wochen, und wird mehr als 2 GB benötigen, um die vollen Details anzeigen zu können, und ne 7970/770/780 werden da nichtzu langsam für sein.

Wie wäre es, wenn man mit solchen Aussagen wartet, bis BF4 erschienen und getestet ist, bevor man mit solchen Aussagen die Pferde scheu macht? Denn 1. sind die veröffentlichten Anforderungen nicht ganz klar und 2. wäre es nicht das erste Mal, dass Angaben der Systemanforderungen seitens der Programmierer nicht zutreffend sind.
Kurz gesagt redest du hier (wieder) über ungelegte Eier. Erst mal den Release abwarten, dann Benchmarks abwarten und dann kann man beurteilen, wie weit man mit 2GB VRAM in welcher Auflösung in BF4 kommt, oder nicht kommt.
 
Zuletzt bearbeitet:
:-_-:
Du kannst doch Entwicklern nicht verbieten...
Das war doch nur eine reine Frage bzw. "wäre wenn Situation" Frage gewesen.
Versteh jetzt nicht, warum du dich nun derartig darüber aufregst. :what:


BF4 kommt in ein paar Wochen, und wird mehr als 2 GB benötigen, um die vollen Details anzeigen zu können, und ne 7970/770/780 werden da nichtzu langsam für sein. Was schnelleres gibt es ja eigentlich nicht, außer bei AMD noch die zeitgleich kommende Geeration.

Das habe ich aber vorher schonmal gesagt, haste aber scheinbar geflissentlich ignoriert...

Wohingegen man nicht weiß wofür die 3 gb gedacht sind und ob dann auch noch flüssige Bildraten zu stande kommen, was ja gerade in Battlefield kein unwichtiges Argument sein sollte.
Also daher auch mal einen Test abwarten. ;)

Bei Battlefield 3 wurde auch Gott weiß was herumgeträllert...ich erinnere nur einmal daran das es hieß max Details = GTX 580 SLI. :ugly:

(hab das schon von dir alles gelesen und erfasst, keine Bange.)
 
Wie wäre es, wenn man mit solchen Aussagen wartet, bis BF4 erschienen und getestet ist, bevor man mit solchen Aussagen die Pferde scheu macht?

Denn 1. sind die veröffentlichten Anforderungen nicht ganz klar und 2. wäre es nicht das erste Mal, dass Angaben der Systemanforderungen seitens der Programmierer nicht zutreffend sind.

Kurz gesagt redest du hier (wieder) über ungelegte Eier. Erst mal den Release abwarten, dann Benchmarks abwarten und dann kann man beurteilen, wie weit man mit 2GB VRAM in BF4 kommt, oder nicht kommt.
War ne offizielle Aussage auf der Main von den Entwicklern, und im Normalfall wissen die schon, was Sie erzählen ;)
 
War ne offizielle Aussage auf der Main von den Entwicklern, und im Normalfall wissen die schon, was Sie erzählen ;)

Und? Du machst hier defintive Aussagen über ein Spiel, welches noch nicht erschienen ist, nur weil Entwickler etwas gesagt haben. Auf dem Platz ist das was zählt, und nicht das was Entwickler sagen.

Deswegen noch mal: Tests abwarten und erst dann kann man sagen in welcher Auflösung und in welchen Settings 2GB reichen um flüssig zu spielen.
 
Wir brauchen AMD als Konkurrent zu Intel und nVidia, sonst keine Entwicklung, hohe Preise,..... u.s.w.
Dabei wird sich dann bald der PC Markt komplett verabschieden, denn warum was neues kaufen wenn sich kaum was ändert.
Intel fängt doch schon an, von Ivy Bridge zu Haswell gab es auch nicht den erhofften Performance Sprung.
Daher Intel-User hofft das es stimmt was AMD da sagt, und hofft das AMD genug Geld verdient, um ein extrem guten FX 8350 Nachfolger entwickelt, sonst wird Skylake auch nicht groß schneller.
 
Das ist aber kein "Unlauterer Wettbewerb"...

Ja da bin ich mir sicher, weil nVidia dazu viel viel viel zu viel am Grundgerüst von GPU-PhysX ändern müsste. PhysX ist gerade bzgl CPU-PhysX ja keine schlechte API. Vor allem ist es eine, die die Entwickler schon kennen, und in ihre Engines implementiert haben. Da ist es doch klar, dass die Game-Developer das auch auf den Konsolen weiter verwenden wollen.

Da gehts rein um Kostenersparnis, weil man etwas Neues nicht zwingend implementieren muss. Software neu zu entwickeln ist teuer, und PhysX funktioniert, also wird man es auch weiterhin einsetzen, so lange man es für Kostengünstiger in der Entwicklung hält, und das wird noch lange der Fall sein, zumindest in einer nicht geringen Anzahl an Games.

Bestimmt nicht! Statt PhysX nimmt man Havoc und das Thema ist durch!

Edit: gerade gelesen das PhysX auch auf der PS4 zum Einsatz kommt, allerdings CPU gebunden. Umkehrschluss ist also, das es zwar PhysX geben wird, aber ich mir zu 90% sicher bin, das wenn es noch komplexer werden soll, Havoc statt PhysX zum Einsatz kommt. Denn Havoc kann über OpenCL auch auf dem Grafikchip ausgeführt werden, unabhängig vom Hersteller.
 
Zuletzt bearbeitet:
Intel baut die besseren CPUs, jedenfalls ist das die jetzige Situation und ich würde auch jedem Gamer empfehlen den i5 anstelle eines FX zu holen. Ob es mir gefällt oder nicht, ist ein anderes Thema, jedoch fällt es mir seit langem wirklich sehr schwer ernsthaft zu glauben, dass die Archis bei AMD oder AMD allgemein nicht in der Lage sind, mindestens gleichgute Chips zu entwickeln.
Das mag jetzt an einer Verschwörungstheorie grenzen, doch bei solchen Summen an Geldern, die in dem Sektor fließen würde ich nicht alles ausschliessen.

Wie dem auch sei, eine Steigerung bei AMD bedeutet für uns besseres PLV und selbst wenn zukünftige AMD CPUs mit Intel nicht mithalten werden, kann es trotzdem durch Annäherung der Leistung dazu führen, dass wir günstigere Intels bekommen. Ergo Win/Win für Endkunden.
 
Ich verstehe gerade PCGH nicht. Warum ist die Meldung "Hardwarenews des Tages", von gestern, wenn es schon heute ist? Ich dachte immer das heute, morgen gestern ist. :devil:
 
Zuletzt bearbeitet:
Zurück