Desktop-GPU-Marktanteile: Radeon erringen kleinen Sieg im Q3/2015

-Nvidia hat bei der GTX 970 gelogen, was die technischen Daten betrifft. Was sagen "wir" Kunden dazu? Ist egal, weil unter 1080p kaum ein Problem und kaufen die Karte trotzdem.
-Nvidia lügt was die DX12 Features betrifft. Was sagen "wir" Kunden dazu? Egal, weil bis die ersten richtigen DX12 Karten und Games kommen ist das eh schon überholt.

-Ich hab meine GTX 970 vor knapp einem Jahr für 311€ gekauft, inklusive einem AAA Spiel. Effektiv also 290€ weil mir das Spiel auch 20€ wert war. Nun habe ich die GTX 970 Mini für sage und schreibe 281€ in der Bucht wieder los getreten. Abzüglich spesen sind das immer noch gut 250€. Soll ich mich da noch beschweren ? Ich hab eine "Highendkarte" ein Jahr nutzen können und dafür 40€ bezahlt. Das war einer meiner besten Graka Deals ever.

Vielen wird es ähnlich ergehen. Wer nach hohen Auflösungen strebt sollte seine Karte halt zeitnah wieder los werden. Alle die kaufen sind gewarnt. Also kaum Opfer. Höchstens im Peanutsbereich.

-DX12 Probleme ? Lustig.... Ich hab mir grade eine GTX 960 @ 4GB bestellt, will mich gleich zweimal verarschen lassen :ugly:

(Die Karte kommt in 9 Monaten in einen HTPC).
 
Mantle wurde frei zur Verfügung gestellt und mit in Vulkan verwurstet, dürfte sogar die größten Anteile daran haben.
Link zum Mantle SDK bitte.

Crimson Treiber ist doch gar nicht draussen. Von welchem Direrctx11 Rückstand redest du?
AMDs massives Problem mit CPU-Overhead im DX11-Part.

"halte dich aus Diskussionen raus, wenn du nichts sinvolles beizutragen hast."

Mit ein paar manuellen Treiberanpassungen können das sogar die 48 bis 75 Hertz Monitore von LG. ( ab 32 Hertz)
Infos dazu im 3D Center Freessyncthread.
*frickel* *frickel* *frickel* bei AMD

Und da fragt ihr euch noch, warum NVIDIA eben ein bisschen mehr kostet?

AMD hat das nicht für irgendeinen Zeitpunkt versprochen, so wie es dein Kommentar impliziert, sondern man hat auf Nachfrage angegeben dass man daran arbeite.
Leider immer noch keine Chance gegen G-Sync. Tja, NVIDIA immer noch eine Nasenlänge voraus.

Das nennt sich Marktwirtschaft. Schlechtere Adaptive Sync Geräte werden über die Zeit von besseren vom Markt gedrängt.
Die Scaler entwickeln sich eben nicht von heute auf morgen, so etwas braucht ein wenig Zeit.
Umso besser ist es, dass gute Freesyncgeräte bereits jetzt von den Specs her mit den handverlesenen G-sync Geräten mithalten können und dabei deutlich günstiger sind.
Logisch. Die FreeSync-Geräte hinken den G-Sync technisch hinterher, natürlich muss es da einen Preisabschlag geben. Es gibt bis heute kein FreeSync-Gerät, dass es mit dem ersten (!) G-Sync Monitor aufnehmen kann.
 
AMD liefert Fury X Testexemplare mit fiepender Pumpe aus wo auch ein paar mit diesem Fehler in den regulären Handel kommen. Was machen "wir" Kunden obwohl von AMD ein sofortiger Austausch der Karte zugesichert wurde und das dies nur ein paar Modelle der ersten Charge betrifft? Wir "boykottieren" AMD dafür.

Wie bereits geschrieben, war es die komplette erste Charge und nicht nur ein paar... Außerdem hat es AMD da genau so gemacht, wie nVidia bei der 970 - die Shops saßen auf den Rücksendungen fest, während AMD sich zurückgelehnt hat. Und dass die Fury X angeblich boykottiert wurde, kann ich nicht nachvollziehen, aber sicherlich hast du ne Quelle dafür...

Mich wunderts eher, wieso wir Kunden bei der einen Firmen alles auf die Waagschale legen und bei der anderen alles durchgehen lassen.

Mit der Aussage hast du mehr recht, als du vermutlich selbst gedacht haben dürftest...
 
Wie bereits geschrieben, war es die komplette erste Charge und nicht nur ein paar... Außerdem hat es AMD da genau so gemacht, wie nVidia bei der 970 - die Shops saßen auf den Rücksendungen fest, während AMD sich zurückgelehnt hat. Und dass die Fury X angeblich boykottiert wurde, kann ich nicht nachvollziehen, aber sicherlich hast du ne Quelle dafür...
Wenn die erste Charge komplett betroffen war, wieso gibts dann Leute die eine Fury X zum Release ohne fiepen bekommen haben? Alles AMD Fanboys die sich den defekt nicht eingestehen wollten?
 
Link zum Mantle SDK bitte.

Es gibt noch kein fertiges SDK weil es noch in der Entwicklung ist, die Frage hast du absichtlich so gestellt aber bitte hier die Links Mantle ist mehr oder Vulkan

OC3D :: Article :: The Vulkan API is based on Mantle :: The Vulkan API is based on Mantle

'Vulkan Absorbed The Best and Brightest Parts of Mantle API' - States AMD

Leider immer noch keine Chance gegen G-Sync. Tja, NVIDIA immer noch eine Nasenlänge voraus.

Logisch. Die FreeSync-Geräte hinken den G-Sync technisch hinterher, natürlich muss es da einen Preisabschlag geben. Es gibt bis heute kein FreeSync-Gerät, dass es mit dem ersten (!) G-Sync Monitor aufnehmen kann.

wie kann jemand so sukzessiv die Fakten ignorieren, Free Sync wird immer besser und irgendwann deckt es auch den Bereich von G-Sync ab


bitte noch ein Link für Programmieren und da steht

Vulkan Tutorial

-> https://medium.com/@Overv/implementing-hello-triangle-in-mantle-4302450fbcd2#.4uejhb7uh


"The specification and drivers for Vulkan Khronos’ next generation graphics API, are expected to be released later this year. However, we can get a head start on learning how this new API will work by learning from the project that it evolved from: Mantle.
wieder nur eine FUD-Kampagne seitens AMD gegen Nvidia ?auf der offiziellen Kronos Seite ?

soviele FUD Kampagnen?
 
Zuletzt bearbeitet von einem Moderator:
Besser kann man das von mir geschriebene wohl nicht bestätigen. ;-)

Nach deiner eingeschränkten Sichtweise, ja.
Wo wurde den AMD boykottiert? AMD konnte am Anfang so gut wie keine Fury Karten liefern und das über Wochen, so konnte auch keiner welche kaufen. Und die die eine ergattert haben, haben sich über die Pumpe geärgert (es war die ganze erste Charge, du weißt was dass heißt?). Die einen hatten ein sehr lautes surren, die anderen ein leiseres, betroffen waren aber ALLE Karten.
Nicht umsonst hat man bei AMD so schnell reagiert (und ja, das war wirklich schnell). AMD hätte noch schneller reagiert aber zu dem Zeitpunkt hatte man keine Karten und CoolerMaster noch keine Lösung, also hat man die Karten so zum Verkauf an die Partner geschickt.
Deswegen schrieb ich auch dass der Fury Launch viel negatives beinhaltet, was vermeidbar gewesen wäre. Ich sage auch nach wie vor dass die Fury Serie eine technisch sehr gute Serie ist, die leider zu spät kam.
Meiner Meinung nach hätte AMD besser die ganze Serie (Fury X, Fury und Nano) zur gleichen Zeit launchen müssen, mit sofortiger Verfügbarkeit und guten Preisen, dann würde es aktuell anders aussehen.
 
Da könntest diesesmal wirklich Recht haben beim Letzten Satz!
Dies bleibt in den Köpfen hängen als immer nur Kleinweise und Tortenförmig serviert bekommen!
 
Gegenfrage um es kurz zu machen und um nicht zu weit oT zu gehen : Wenn AMD so klasse und auch effiziente Hardware hat, und auch nicht zu viel verspricht, warum stehen sie dann am Abgrund ? Ist es ein Mysterium oder hat es doch banalere Gründe ?

Um es ganz einfach zu machen: Wieso behauptest du Dinge die nicht stimmen?
Muss ich mich mit deinen Untergangsphantasien herumschlagen, wenn es in der Sache um ganz was anderes ging? Ich glaube nicht.
Äußer dich zu deinen vorgebrachten "Versprechungen" von AMD und lass die Rethorik aus dem Spiel, auf die habe ich nämlich keine lust.
Erst kommen Behauptungen und dann wenn sie widerlegt sind, wechselt man in den "AMD ist so schlecht" Modus um sich herauszureden.
AMD hat gerade den kompletten Treiber überarbeitet und das meiste eingebaut was du unredlich kritisiert hast.

Niemand hat pauschal gesagt AMD habe klasse und effiziente Hardware, du verzerrst nur den Zusammenhang von dem was gesagt worden ist.
Die Gründe für den geringeren Marktanteil sind vielschichtig und liegen sicherlich nicht alleinig in den angeblichen "Versprechungen".
 
Link zum Mantle SDK bitte.

Wieso fragst du mich nach einem Link zum SDK, wenn du selbst weißt, dass AMD kein SDK zur Verfügung gestellt hat?
AMD´s Mantle wurde freigegeben und für Vulkan verwurstet. DAs heißt nicht, dass du das SDK einsehen kannst.

AMDs massives Problem mit CPU-Overhead im DX11-Part.

Ja das ist so unglaublich massiv, ich kann gar nicht mehr spielen.:rollen:
Findest du es nicht unnötig Dinge immer so stark zu übersteigern?
Ich sehe bei den Benchmarkparcours selbst mit einem 2500k keine großen Einbrüche bei Computerbase
Das macht bei der Fury X in Full HD im Vergleich zu einem i7 4770k über mehrere Spiele @ 4,4 ghz 8% aus.
Bei einer r9 390 ists schon eher Messungenauigkeit.

*frickel* *frickel* *frickel* bei AMD

Schau mal, ich hab Pumpi, weil er behauptet hat, es gäbe keine besseren Freesyncmonitore, direkt ein Gerät verlinkt und nur der Information wegen, die manuelle Anpassung der Monitore, die weit niedrigere Ranges anbieten ins Feld geführt, damit er mal sieht, dass das Problem nicht bei "Freesync" liegt, sondern bei den Scalern.
Das war eine Zusatzinformation, seine Aussage selber, habe ich widerlegt, du hast sie aus dem Zusammenhang gerissen.:rollen:

Leider immer noch keine Chance gegen G-Sync. Tja, NVIDIA immer noch eine Nasenlänge voraus.

Nixeus 30 bis 144 Hertz + Framedoubling mit dem Crimson Treiber = immernoch keine Chance?:wall:
Du hast den BEitrag um 15:37 verfasst, um 14 Uhr gab es schon die News hier auf PCGH.

Logisch. Die FreeSync-Geräte hinken den G-Sync technisch hinterher, natürlich muss es da einen Preisabschlag geben. Es gibt bis heute kein FreeSync-Gerät, dass es mit dem ersten (!) G-Sync Monitor aufnehmen kann.

Kannst du das mit einem Argument begründen? Ich wäre sehr gespannt.
Inwiefern kann ein Asus Gerät mit Framedoubling und großer Range von 35 bis 144 Hertz oder der Nixeus von 30 bis 144 Hertz, nicht das gleiche bieten?
Wieso habe ich nur das Gefühl dass das wiedermal Wunschgedanken eines Nvidia Sympathisanten sind, der sich um die Richtigkeit seiner Aussagen nichts schert?
 
Ohne manuelle Nachoptimierung für bessere Performance und Corner-Cases wird man nicht herum kommen, aber AMD könnte mit einer Lanze zustechen.
Die HPC-Kunden haben sich für CUDA bewusst entschieden, weil es das beste Framework ist (war) und schon viel Code dafür existiert.
Mit der Boltzmann Initiative will AMD viel näher an CUDAs Features heran kommen und es den Entwicklern erleichtern, bestehenden Code zu konvertieren.
Bei entsprechend guten Angeboten von AMD, könnte die Hemmschwelle für einen Umstieg so stark reduziert werden.
Wäre zwar echt ein Ding wenn das so kommt und Nvidia das zulässt, dass man auf AMD propritäre Sachen laufen lässt (PhysX?), aber es würde letztendlich dazu führen, dass man AMD und Nvidiakarten hier direkt vergleicht und natürlich hat die Karte/Firma immer den Vorteil bei der der Code von vornherein nativ drauf entwickelt wurde und somit dürfte in einem direkten Vergleich die Performance bei Nvidia immer höher sein, ebenso die Stabilität/Zuverlässigkeit.
Dass dadurch ein großer Grund wegfällt, überhaupt Nicht-CUDA zu entwickeln sehe ich also auch zum Teil einen Vorteil für NV und nicht nur AMD.
du meinst weil Leute die keine Ahnung haben und nicht rechnen können, sich nur auf Propaganda stützen, keiner Sprach von deutlich überlegen aber vor allem preiswerter, mit AMD spielt man deutlich länger und muss sich nicht jedes Jahr eine neue Karte kaufen

Versteh ich grad nicht. Haben Nvidia Karten ein Ablaufdatum oder wovon redest du? Als AMD User (privat) höre ich von dem "Problem" das erste mal.
Ihr immer mit eurem Stromverbrauch... Habt ihr euch echt schon einmal damit wirklich befasst? Hier kommt ein Mehrstrom von 20-40€ im Jahr her wenn ich täglich 4 Stunde zocke??? Wer kann von uns 4 Stunden am Tag zocken? Also ich nicht als Berufstätiger und Familienmensch. Bin schon froh wenn ich einmal am WE 4 Stunden am Stück spielen kann... Immer diese Rechnung mit dem Strom. Ihr tut ja immer so, als würde die konstant 300 Watt aus der Dose ziehen..
Wie schon so oft: geht ja nicht nur ums Geld alleine.
Umwelt
Lautstärke
Temperaturabgabe in den Raum
Lebensdauer der Komponenten
...
gibt eigentlich schon mehr als den Grund "Geld"
zehn prozent weniger anteil als im letzten jahr, wenn das kein zeichen der erholung ist weiß ich es auch nicht
fresse3.gif


hier sieht man sehr gut, dass die käufer nicht dermaßen dumm sind, und sich nicht ungestraft neu aufgebrühtes der 300er serie auftischen lassen, ja ihr lieben amd-markentreuen das ist natürlich ernst gemeint auch wen ihr das nicht wahrhaben wollt

Was für eine unnötige Stichelei.
Ja Nvidia brachte Maxwell und AMD hatte keine Antwort darauf. Das ist aber schon allein deshalb geschuldet, weil Nvidia nunmal mehr Geld hatte für die Entwicklung und so wird halt immer mehr ein Teufelskreis draus - das ist der Grund,warum es so wichtig ist, dass AMD mehr Marktanteil bekommt und wir einen knapperen Kampf am Markt
Da geb ich Dir voll und ganz recht shootme55
smiley.gif


Entweder hätte man Fury und FuryX mit GDDR5 auf den Markt bringen müssen und 8 GB, oder eben warten, bis HBM fähig ist, mit 8 GB
smiley.gif


So werden Fury und FuryX in den kommenden Monaten nichts reissen. Im Gegenteil, die bleiben in den Regalen liegen. Da hat AMD NICHTS gewonnen. Nur ein paar wenige Hardware-Verrückte kaufen sich solch eine Karte aufgrund des HBM-Speichers.

Greetz Erok
Dazu wäre der Chip nochmals etwas größer (weil das GDDR5 Speicherinterface mehr Platz braucht aufm Chip) und natürlich der Verbrauch massiv höher (weil HBM wesentlich weniger braucht als GDDR5)
Euch ist aber schon klar, das nur wegen HBM und dem Speicherkontroller die zusätzlichen Shadereinheiten möglich waren? Hawaii braucht doch jetzt schon 250 Watt, wie sollen da noch 40% mehr Einheiten versorgt werden?
Die Furys basieren auf Tonga, und der ist kaum effizienter als Tahiti

Genau das hab ich gemeint.
Wer heute noch eine AMD GPU kauft, hat eh schon verloren.

Wer mit solchen Sprüchen kommt auch
Nicht mal bei Nano hat es mit der 1,9x besseren effizienz geklappt.

dafür fast so effizent wie ein 970 aber so schnell wie ein 980
Dafür auch 2x so teuer wie die 970:D Das nenn ich mal effizienz beim Geldmachen :)

Deinen eigenen Link nicht so genau betrachtet? Steht doch drin, dass das nur Spekulation ist...
 
Zuletzt bearbeitet:
Versteh ich grad nicht. Haben Nvidia Karten ein Ablaufdatum oder wovon redest du? Als AMD User (privat) höre ich von dem "Problem" das erste mal.
Wie schon so oft: geht ja nicht nur ums Geld alleine.
Umwelt
Lautstärke
Temperaturabgabe in den Raum
Lebensdauer der Komponenten
.
wie lange gibt es jetzt die 290x ? wird irgendwo noch eine alte Titan getestet ?, das Silizium herstellen kostet auch Energie und Materialien
...
gibt eigentlich schon mehr als den Grund "Geld"

Dafür auch 2x so teuer wie die 970:D Das nenn ich mal effizienz beim Geldmachen :)

Deinen eigenen Link nicht so genau betrachtet? Steht doch drin, dass das nur Spekulation ist...

Dafür so schnelle wie 980 und eigentlich auch so teuer, ja ich weiß der Link ist sowieso blödsinn
 
wie lange gibt es jetzt die 290x ? wird irgendwo noch eine alte Titan getestet ?, das Silizium herstellen kostet auch Energie und Materialien
...
gibt eigentlich schon mehr als den Grund "Geld"
und, dass die frühere Titan nicht mehr mitgetestet wird macht genau jetzt was?
Macht sie das langsamer?
Macht das den e-P.nis kaputt von denjenigen Leuten die sie sich gekauft haben, nur um eben einen solchen zu haben?
Die Titan ist ja immer noch eine superflotte Karte, wo ist das Problem? Wird eine Karte schimmlig sobald sie mal nicht mehr ständig mitgetestet wird? Da müsste in meiem PC schon ziemlich viel schimmel sein (2008er i7 @ 4.2 Ghz, läuft immer noch wie ne 1, im anderen SpielePC eine Radeon 5850, reicht nach wie vor für die meisten Games @ FullHD) usw usf.

Dafür so schnelle wie 980 und eigentlich auch so teuer, ja ich weiß der Link ist sowieso blödsinn
Das ist nur fast richtig, die 980 hat halt wieder ihre eigenen Vor und Nachteile. Wir haben also 2 annähernd gleich schnelle, gleich effiziente Karten. Die Nano profitiert halt zusätzlich von HBM, sonst wäre sie nicht so effizient (und halt undervolting/clocking, aber 40 Watt spart man halt fast durch HBM), dafür hat die 980 den ganzen proprietären Nvidiablödsinn dabei.
Die beiden Karten nehmen theoretisch wenig. Hätte die fury/nano nicht das Problem des Microstotterns in vielen Spielen sowie den Preisnachteil. Die günstigste 980 die ich hier kaufen kann kostet mich ca 470, die günstigste Nano 650-670.
"auch so teuer" würde ich da mal nicht sagen, das sind mal eben 40% mehr.
geforce 980 in PCIe mit GPU (nVIDIA): GTX 980 Preisvergleich | Geizhals Österreich

vs
radeon nano in PCIe Preisvergleich | Geizhals Österreich
 
Es gibt noch kein fertiges SDK weil es noch in der Entwicklung ist, die Frage hast du absichtlich so gestellt aber bitte hier die Links Mantle ist mehr oder Vulkan
Also ist Mantle so "frei", dass es gar nichts zum runterladen gibt?

Komische Definition von "frei". Ich würde es ja "unfrei" nennen.

wie kann jemand so sukzessiv die Fakten ignorieren, Free Sync wird immer besser und irgendwann deckt es auch den Bereich von G-Sync ab
"irgendwann"? Na dann macht man ja mit dem Original G-Sync alles richtig :daumen:

Wieso fragst du mich nach einem Link zum SDK, wenn du selbst weißt, dass AMD kein SDK zur Verfügung gestellt hat?
AMD´s Mantle wurde freigegeben und für Vulkan verwurstet. DAs heißt nicht, dass du das SDK einsehen kannst.
Ich sehe jetzt nicht ,wo Mantle nun sonderlich frei sein soll, wenn es da gar nichts zum runterladen gibt.

Ja das ist so unglaublich massiv, ich kann gar nicht mehr spielen.:rollen:
Findest du es nicht unnötig Dinge immer so stark zu übersteigern?
Ich sehe bei den Benchmarkparcours selbst mit einem 2500k keine großen Einbrüche bei Computerbase
Das macht bei der Fury X in Full HD im Vergleich zu einem i7 4770k über mehrere Spiele @ 4,4 ghz 8% aus.
Bei einer r9 390 ists schon eher Messungenauigkeit.
Ich sage nur Project Cars, wo AMD zu Beginn massive Probleme hatte, weil deren Treiber im CPU-Limit fest hing. Statt dann bei AMD mal zu maulen, wurde lieber der Entwickler und NVIDIA angeflamt, von wegen es wäre ja Gameworks und Betrug blablabla.

AMD High Overhead Drivers on DX11 | TechPowerUp Forums

Schau mal, ich hab Pumpi, weil er behauptet hat, es gäbe keine besseren Freesyncmonitore, direkt ein Gerät verlinkt und nur der Information wegen, die manuelle Anpassung der Monitore, die weit niedrigere Ranges anbieten ins Feld geführt, damit er mal sieht, dass das Problem nicht bei "Freesync" liegt, sondern bei den Scalern.
Das war eine Zusatzinformation, seine Aussage selber, habe ich widerlegt, du hast sie aus dem Zusammenhang gerissen.:rollen:
Tja und was ist an FreeSync nun so toll, wenn man erstmal rumfrickeln muss, um dann immer noch nicht bei der Leistungsfähigkeit von G-Sync zu sein? Könnte es sein, dass es genau deswegen das Modul + den Aufpreis gibt? Weil es technisch nicht anders machbar war/ist?

Nixeus 30 bis 144 Hertz + Framedoubling mit dem Crimson Treiber = immernoch keine Chance?
Du hast den BEitrag um 15:37 verfasst, um 14 Uhr gab es schon die News hier auf PCGH.
Und? Gibts schon zu kaufen? Oder nur wieder große Ankündigungen? Würde sagen die Käufer der diversen G-Sync Modelle haben da offensichtlich alles richtig gemacht :daumen:


Kannst du das mit einem Argument begründen? Ich wäre sehr gespannt.
Inwiefern kann ein Asus Gerät mit Framedoubling und großer Range von 35 bis 144 Hertz oder der Nixeus von 30 bis 144 Hertz, nicht das gleiche bieten?
Wieso habe ich nur das Gefühl dass das wiedermal Wunschgedanken eines Nvidia Sympathisanten sind, der sich um die Richtigkeit seiner Aussagen nichts schert?
Was bringt denn EIN Gerät, dass es IRGENDWANN mal zu kaufen gibt, den ganz Besitzern anderer Monitore? Irgendwie gar nichts, oder? Und da wundert ihr euch, dass G-Sync aufwändiger/teurer ist, wenn AMD es selbst 2 Jahre später nicht schafft auf das gleiche Funktionslevel zu kommen?

PS: Es gibt auch Asus-Geräte mit mehr als 144Hz. Nur so als Tipp! :lol:
 
Zuletzt bearbeitet von einem Moderator:
Doppelpost

und, dass die frühere Titan nicht mehr mitgetestet wird macht genau jetzt was?
Macht sie das langsamer?
Macht das den e-P.nis kaputt von denjenigen Leuten die sie sich gekauft haben, nur um eben einen solchen zu haben?
Die Titan ist ja immer noch eine superflotte Karte, wo ist das Problem? Wird eine Karte schimmlig sobald sie mal nicht mehr ständig mitgetestet wird? Da müsste in meiem PC schon ziemlich viel schimmel sein (2008er i7 @ 4.2 Ghz, läuft immer noch wie ne 1, im anderen SpielePC eine Radeon 5850, reicht nach wie vor für die meisten Games @ FullHD) usw usf.

warum wird nicht mehr gebenched ? weil die Karte schon überholt ist ?
Das ist nur fast richtig, die 980 hat halt wieder ihre eigenen Vor und Nachteile. Wir haben also 2 annähernd gleich schnelle, gleich effiziente Karten. Die Nano profitiert halt zusätzlich von HBM, sonst wäre sie nicht so effizient (und halt undervolting/clocking, aber 40 Watt spart man halt fast durch HBM), dafür hat die 980 den ganzen proprietären Nvidiablödsinn dabei.
Die beiden Karten nehmen theoretisch wenig. Hätte die fury/nano nicht das Problem des Microstotterns in vielen Spielen sowie den Preisnachteil. Die günstigste 980 die ich hier kaufen kann kostet mich ca 470, die günstigste Nano 650-670.
"auch so teuer" würde ich da mal nicht sagen, das sind mal eben 40% mehr.
geforce 980 in PCIe mit GPU (nVIDIA): GTX 980 Preisvergleich | Geizhals Österreich

mit dem Crimson Treiber sollen für Tonga bis zu 20% noch drin sein[/QUOTE]

Also ist Mantle so "frei", dass es gar nichts zum runterladen gibt?

Komische Definition von "frei". Ich würde es ja "unfrei" nennen.

dein Frage wurde bereits beantwortet, Mantle ist Vulkan und Vulkan wird von der Khronos Group vertrieben, nur weil es noch nicht fertigstellt ist bedeutet das jetzt es ist nicht open Source, du verdrehst mal gerne wieder die Tatsachen, nach dem ich gezeigt hab das Mantle defacto Vulkan ist zeig deinen Link wo es nicht open source sein soll

"irgendwann"? Na dann macht man ja mit dem Original G-Sync alles richtig :daumen:
der Mehrwert schrumpft und schrumpft, die Frequenzen wo Free Sync funktioniert werden immer niedriger


Ich sehe jetzt nicht ,wo Mantle nun sonderlich frei sein soll, wenn es da gar nichts zum runterladen gibt.

einfach nur Blödsinn , zeig mir den Link wo man dafür zahlen soll
 
Zuletzt bearbeitet von einem Moderator:
warum wird nicht mehr gebenched ? weil die Karte schon überholt ist ?
Erklär mir das mal, sie ist schneller als die meisten gebenchten Karten, warum ist sie deiner Meinung nach überholt?
einfach nur Blödsinn , zeig mir den Link wo man dafür zahlen soll
Wo schreibt er denn was von dafür zahlen sollen?
mit dem Crimson Treiber sollen für Tonga bis zu 20% noch drin sein
Die findet man plötzlich auf magische Art und Weise in dieser ausgelutschten, 4 Jahre alten Architektur (und komm' bitte nicht daher mit Tonga sei ein völlig neuer Chip, es ist dennoch nur eine Abwandlung der uralt GCN Architektur) zumal die Rede von Fury war. Du springst von einem Thema zum nächsten sobald du merkst, du hast unrecht, aber zugeben kannst du es einfach nicht.
Ich weiß auch nicht, warum du immer mit Händen und Füßen AMD verteidigst als würde dein Leben davon abhängen, kannst nicht einfach mal deinen Diskussionspartnern Recht geben oder zumindest teilrecht, anstatt immer die Fakten zu verdrehen?
Bezüglich Tonga:
3DCenter Forum - AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015 - Seite 675
Nix neues
 
Zuletzt bearbeitet:
  • Like
Reaktionen: hfb
In erster Linie kann AMD nicht wirtschaften. Das schlägt sich nicht nur im Marktanteil, sondern auch in den Bilanzzahlen nieder.

Die Dinge sind sind in Wahrheit viel komplexer.
Auf der einen Seite wird AMD mangelnde Konkurrenzfähigkeit vorgeworfen und auf der anderen Seite können sie nicht wirtschaften.
Wie soll man mit einem geringen Marktanteil und daher wenig Einnahmen auch sinnvoll wirtschaften? Ich würde mal behaupten es ist ziemlich schwer und komplex das alles unter eine Hut zu bringen.
Das was mich stört ist, dass es hier von dir immer nur ganze einfache und pauschale Antworten zu schwierigen Fragen gibt, obwohl in Wirklichkeit viel mehr dahinter steckt.

flankendiskriminator schrieb:
Ich sehe jetzt nicht ,wo Mantle nun sonderlich frei sein soll, wenn es da gar nichts zum runterladen gibt.

Das Problem ist dass du meine Aussage bewusst falsch verstehst. Einfach verstehen und gut ist.;)

Ich sage nur Project Cars, wo AMD zu Beginn massive Probleme hatte, weil deren Treiber im CPU-Limit fest hing. Statt dann bei AMD mal zu maulen, wurde lieber der Entwickler und NVIDIA angeflamt, von wegen es wäre ja Gameworks und Betrug blablabla.

Project Cars war ein Fall wo bei AMD ganz offensichtlich etwas ineffizient lief, vermutlich hatte es mit den Drawcalls zu tun, das wurde verbessert, aber nicht behoben.
Das ist jetzt ein einziges Beispiel von etwa einer handvoll.
Das Problem ist dass du dazu neigst, diese Dinge zu pauschalisieren und zu übersteigern.
Nebenbei ist das "Problem" in Project Cars lange nicht mehr so massiv wie zu Release, ich hab das Spiel selbst und bin recht zufrieden mit der AMD Leistung unter 4K, in Full HD könnte es aber gern 20 bis 30% schneller laufen.

ja und was ist an FreeSync nun so toll, wenn man erstmal rumfrickeln muss, um dann immer noch nicht bei der Leistungsfähigkeit von G-Sync zu sein? Könnte es sein, dass es genau deswegen das Modul + den Aufpreis gibt? Weil es technisch nicht anders machbar war/ist?

Man muss ja nicht rumfrickeln, wenn man sich ein gescheites Gerät auswählt.;)
Die 48 bis 75 Hertz Monitore kommen ohne manuelle Anpassung nicht an die G-sync Gerät heran, das sollte ja klar sein.

Und? Gibts schon zu kaufen? Oder nur wieder große Ankündigungen? Würde sagen die Käufer der diversen G-Sync Modelle haben da offensichtlich alles richtig gemacht :daumen:

Es geht nicht um die Frage wer etwas richtig oder etwas falsch gemacht hat, sondern darum zu zeigen dass die richtigen Freesyncgeräte mittleweile gleichwertig zu den Nvidia Pendants sind und weniger kosten.
Das war die Diskussion mit Pumpi.

Was bringt denn EIN Gerät, dass es IRGENDWANN mal zu kaufen gibt, den ganz Besitzern anderer Monitore? Irgendwie gar nichts, oder? Und da wundert ihr euch, dass G-Sync aufwändiger/teurer ist, wenn AMD es selbst 2 Jahre später nicht schafft auf das gleiche Funktionslevel zu kommen?

Wo ist der Themenbezug? Wer ist euch? Es ging darum aufzuzeigen dass Freesyncmonitore mittlerweile die gleichen Specs liefern können.
Das das nicht in der breite der Fall ist, hat denke ich hier niemand bestritten.

Warum du das so schwer akzeptieren kannst und lieber versuchst das Thema ins Lächerliche zu ziehen und mit Vorwürfen kommst, die mit der Diskussion nichts zu tun haben, naja ok. *Schulterzuck*
Du hast die Frage die ich dir gestellt hast, nicht mal angeschnitten, sondern bist ausgewichen und antwortest mit Gegenfragen.

Insofern lohnt auch kein weiterer Diskurs dazu.

Und da wundert ihr euch, dass G-Sync aufwändiger/teurer ist, wenn AMD es selbst 2 Jahre später nicht schafft auf das gleiche Funktionslevel zu kommen?

Ich habe mich nicht gewundert warum G-sync teurer ist, vielleicht irgendjemand anderes? Ich weiß es nicht.
G-sync ist im Endeffekt das gleiche wie Adaptive Sync, nur proprietär und von Nvidia vorangetrieben.
Adaptive Sync ist der offene Standard, der nicht alleine in der Hand von AMD liegt, deswegen ist es auch schwerer bei allen Monitoren den gleichen Syncrahmen anzubieten. --> Scaler
Aber es wird ja besser bis gleichwertig, insofern kann man das nur begrüßen.

Apropos Funktionlevel, was unterscheidet Adaptive Sync und G-sync noch großartig wenn AMD jetzt auch mit Framedoubling nachgezogen ist? Kannst du mir das bitte mal erklären?
Offenbar weigerst du dich, ok. Hätte ich vorher wissen können.:gruebel:
 
Zuletzt bearbeitet:
Die Dinge sind sind in Wahrheit viel komplexer.
Auf der einen Seite wird AMD mangelnde Konkurrenzfähigkeit vorgeworfen und auf der anderen Seite können sie nicht wirtschaften.
Wie soll man mit einem geringen Marktanteil und daher wenig Einnahmen auch sinnvoll wirtschaften? Ich würde mal behaupten es ist ziemlich schwer und komplex das alles unter eine Hut zu bringen.
Stimmt absolut. Nur kommt dieser geringe Marktanteil ja nicht von ungefähr. Man hatte zuletzt einen höheren Marktanteil 2004, seither ist Nvidia teils massiv vorne. Das heißt halt auch, seither verdient man wesentlich weniger Geld.
Die Frage ist halt auch: warum? Denn die Produkte waren bis auf die HD 2900 konkurrenzfähig bis sogar besser.
Das was mich stört ist, dass es hier von dir immer nur ganze einfache und pauschale Antworten zu schwierigen Fragen gibt, obwohl in Wirklichkeit viel mehr dahinter steckt.
Naja, ich kann jetzt nur für mich antworten, aber ich habe mir in vielen Threads die Arbeit angetan sinnvoll zu Argumentieren, Links rauszukramen usw usf.
Etwa wenn es um einen Vergleich beim Overhead ging, oder Treiberprobleme. Oder Vor und Nachteile beider Firmen objektiv gegenüberzustellen.
Die Finanzielle Situation bei AMD, die ja nie wirklich rosig war, zu betrachten usw usf.
Aber langsam frag' ich mich: wieso? Es ist JEDESMAL exakt dieselbe Diskussion.Teilweise auch mit denselben Leuten. Da behauptet einer dieses, man wiederlegt es ganz eindeutig mit mehreren(!) voneinander unabhängigen Links zu Tests oder ähnlichem. Der Diskussionspartner ignoriert dies und springt zum nächsten Thema. 2 Tage später ist wieder irgendein AMD/Intel/Nvidia Beitrag und derselbe Depp hat wieder exakt dieselben Argumente. Das ist einfach zum auf die Birne greifen und oft nicht mehr wert da groß zu argumentieren.
Ich gebe dir aber 100% recht, dass die ganze Materie nicht mit einfachen Antworten zu betrachten ist. Und viele Kommentare sind auch völlig unnötig ("wer sich AMD kauft ist selbst schuld")

Project Cars war ein Fall wo bei AMD ganz offensichtlich etwas ineffizient lief, vermutlich hatte es mit den Drawcalls zu tun, das wurde verbessert, aber nicht behoben.
Das ist jetzt ein einziges Beispiel von etwa einer handvoll.
Draw Calls/Overhead waren schon immer ein gewisses Problem bei AMD.
Aber Proj. Cars ist sicherlich kein Einzelfall. Mir fällt deutlich schwächere Performance bei fast ALLEN Early Access Spielen auf. Dazu hat auch mal die Computerbase einen Test gemacht, mit einem eindeutigen, massiven Gewinn (teils 2x die Performance von AMD) für Nvidia.
Interessiert man sich für solche Spiele, ist AMD keine Option.
Ich kaufe eigentlich keine Early Access Spiele (bzw finanziere diese ;) ) das ist der Grund, warum ich AMD ohne weiteres kaufe. Das wird sich ja auch nicht ändern bei mir (meine Einstellung zu unfertigen Spielen). Dennoch schade.
 
Erklär mir das mal, sie ist schneller als die meisten gebenchten Karten, warum ist sie deiner Meinung nach überholt?Wo schreibt er denn was von dafür zahlen sollen?Die findet man plötzlich auf magische Art und Weise in dieser ausgelutschten, 4 Jahre alten Architektur (und komm' bitte nicht daher mit Tonga sei ein völlig neuer Chip, es ist dennoch nur eine Abwandlung der uralt GCN Architektur) zumal die Rede von Fury war. Du springst von einem Thema zum nächsten sobald du merkst, du hast unrecht, aber zugeben kannst du es einfach nicht.
Ich weiß auch nicht, warum du immer mit Händen und Füßen AMD verteidigst als würde dein Leben davon abhängen, kannst nicht einfach mal deinen Diskussionspartnern Recht geben oder zumindest teilrecht, anstatt immer die Fakten zu verdrehen?
Bezüglich Tonga:
3DCenter Forum - AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015 - Seite 675
Nix neues


also eine Karte die früher 1000 Euro gekostet hat ist jetzt schlechter als eine Karte die früher für rund 600 Euro zu haben war
AMD Radeon R9 290X 8GB CF vs Titan X SLI vs GTX 980 SLI at 4K - TweakTown's Tweakipedia

wccftech ist nicht gerade die vertrauenswürdige Seite aber die kommen doch teilweise auf mehr, so Umfangreich waren die Benchmarks jetzt ja auch nicht
AMD Radeon Software Performance Analysis - Is This the Crimson Tide?

ich sag es mal so, es sollte doch noch bisschen was drin sein,
 
Zuletzt bearbeitet:
Zurück