-Nvidia hat bei der GTX 970 gelogen, was die technischen Daten betrifft. Was sagen "wir" Kunden dazu? Ist egal, weil unter 1080p kaum ein Problem und kaufen die Karte trotzdem.
-Nvidia lügt was die DX12 Features betrifft. Was sagen "wir" Kunden dazu? Egal, weil bis die ersten richtigen DX12 Karten und Games kommen ist das eh schon überholt.
Link zum Mantle SDK bitte.Mantle wurde frei zur Verfügung gestellt und mit in Vulkan verwurstet, dürfte sogar die größten Anteile daran haben.
AMDs massives Problem mit CPU-Overhead im DX11-Part.Crimson Treiber ist doch gar nicht draussen. Von welchem Direrctx11 Rückstand redest du?
*frickel* *frickel* *frickel* bei AMDMit ein paar manuellen Treiberanpassungen können das sogar die 48 bis 75 Hertz Monitore von LG. ( ab 32 Hertz)
Infos dazu im 3D Center Freessyncthread.
Leider immer noch keine Chance gegen G-Sync. Tja, NVIDIA immer noch eine Nasenlänge voraus.AMD hat das nicht für irgendeinen Zeitpunkt versprochen, so wie es dein Kommentar impliziert, sondern man hat auf Nachfrage angegeben dass man daran arbeite.
Logisch. Die FreeSync-Geräte hinken den G-Sync technisch hinterher, natürlich muss es da einen Preisabschlag geben. Es gibt bis heute kein FreeSync-Gerät, dass es mit dem ersten (!) G-Sync Monitor aufnehmen kann.Das nennt sich Marktwirtschaft. Schlechtere Adaptive Sync Geräte werden über die Zeit von besseren vom Markt gedrängt.
Die Scaler entwickeln sich eben nicht von heute auf morgen, so etwas braucht ein wenig Zeit.
Umso besser ist es, dass gute Freesyncgeräte bereits jetzt von den Specs her mit den handverlesenen G-sync Geräten mithalten können und dabei deutlich günstiger sind.
AMD liefert Fury X Testexemplare mit fiepender Pumpe aus wo auch ein paar mit diesem Fehler in den regulären Handel kommen. Was machen "wir" Kunden obwohl von AMD ein sofortiger Austausch der Karte zugesichert wurde und das dies nur ein paar Modelle der ersten Charge betrifft? Wir "boykottieren" AMD dafür.
Mich wunderts eher, wieso wir Kunden bei der einen Firmen alles auf die Waagschale legen und bei der anderen alles durchgehen lassen.
Wenn die erste Charge komplett betroffen war, wieso gibts dann Leute die eine Fury X zum Release ohne fiepen bekommen haben? Alles AMD Fanboys die sich den defekt nicht eingestehen wollten?Wie bereits geschrieben, war es die komplette erste Charge und nicht nur ein paar... Außerdem hat es AMD da genau so gemacht, wie nVidia bei der 970 - die Shops saßen auf den Rücksendungen fest, während AMD sich zurückgelehnt hat. Und dass die Fury X angeblich boykottiert wurde, kann ich nicht nachvollziehen, aber sicherlich hast du ne Quelle dafür...
Link zum Mantle SDK bitte.
Leider immer noch keine Chance gegen G-Sync. Tja, NVIDIA immer noch eine Nasenlänge voraus.
Logisch. Die FreeSync-Geräte hinken den G-Sync technisch hinterher, natürlich muss es da einen Preisabschlag geben. Es gibt bis heute kein FreeSync-Gerät, dass es mit dem ersten (!) G-Sync Monitor aufnehmen kann.
Besser kann man das von mir geschriebene wohl nicht bestätigen.
Gegenfrage um es kurz zu machen und um nicht zu weit oT zu gehen : Wenn AMD so klasse und auch effiziente Hardware hat, und auch nicht zu viel verspricht, warum stehen sie dann am Abgrund ? Ist es ein Mysterium oder hat es doch banalere Gründe ?
Link zum Mantle SDK bitte.
AMDs massives Problem mit CPU-Overhead im DX11-Part.
*frickel* *frickel* *frickel* bei AMD
Leider immer noch keine Chance gegen G-Sync. Tja, NVIDIA immer noch eine Nasenlänge voraus.
Logisch. Die FreeSync-Geräte hinken den G-Sync technisch hinterher, natürlich muss es da einen Preisabschlag geben. Es gibt bis heute kein FreeSync-Gerät, dass es mit dem ersten (!) G-Sync Monitor aufnehmen kann.
Wäre zwar echt ein Ding wenn das so kommt und Nvidia das zulässt, dass man auf AMD propritäre Sachen laufen lässt (PhysX?), aber es würde letztendlich dazu führen, dass man AMD und Nvidiakarten hier direkt vergleicht und natürlich hat die Karte/Firma immer den Vorteil bei der der Code von vornherein nativ drauf entwickelt wurde und somit dürfte in einem direkten Vergleich die Performance bei Nvidia immer höher sein, ebenso die Stabilität/Zuverlässigkeit.Ohne manuelle Nachoptimierung für bessere Performance und Corner-Cases wird man nicht herum kommen, aber AMD könnte mit einer Lanze zustechen.
Die HPC-Kunden haben sich für CUDA bewusst entschieden, weil es das beste Framework ist (war) und schon viel Code dafür existiert.
Mit der Boltzmann Initiative will AMD viel näher an CUDAs Features heran kommen und es den Entwicklern erleichtern, bestehenden Code zu konvertieren.
Bei entsprechend guten Angeboten von AMD, könnte die Hemmschwelle für einen Umstieg so stark reduziert werden.
du meinst weil Leute die keine Ahnung haben und nicht rechnen können, sich nur auf Propaganda stützen, keiner Sprach von deutlich überlegen aber vor allem preiswerter, mit AMD spielt man deutlich länger und muss sich nicht jedes Jahr eine neue Karte kaufen
Wie schon so oft: geht ja nicht nur ums Geld alleine.Ihr immer mit eurem Stromverbrauch... Habt ihr euch echt schon einmal damit wirklich befasst? Hier kommt ein Mehrstrom von 20-40€ im Jahr her wenn ich täglich 4 Stunde zocke??? Wer kann von uns 4 Stunden am Tag zocken? Also ich nicht als Berufstätiger und Familienmensch. Bin schon froh wenn ich einmal am WE 4 Stunden am Stück spielen kann... Immer diese Rechnung mit dem Strom. Ihr tut ja immer so, als würde die konstant 300 Watt aus der Dose ziehen..
zehn prozent weniger anteil als im letzten jahr, wenn das kein zeichen der erholung ist weiß ich es auch nicht
hier sieht man sehr gut, dass die käufer nicht dermaßen dumm sind, und sich nicht ungestraft neu aufgebrühtes der 300er serie auftischen lassen, ja ihr lieben amd-markentreuen das ist natürlich ernst gemeint auch wen ihr das nicht wahrhaben wollt
Dazu wäre der Chip nochmals etwas größer (weil das GDDR5 Speicherinterface mehr Platz braucht aufm Chip) und natürlich der Verbrauch massiv höher (weil HBM wesentlich weniger braucht als GDDR5)Da geb ich Dir voll und ganz recht shootme55
Entweder hätte man Fury und FuryX mit GDDR5 auf den Markt bringen müssen und 8 GB, oder eben warten, bis HBM fähig ist, mit 8 GB
So werden Fury und FuryX in den kommenden Monaten nichts reissen. Im Gegenteil, die bleiben in den Regalen liegen. Da hat AMD NICHTS gewonnen. Nur ein paar wenige Hardware-Verrückte kaufen sich solch eine Karte aufgrund des HBM-Speichers.
Greetz Erok
Euch ist aber schon klar, das nur wegen HBM und dem Speicherkontroller die zusätzlichen Shadereinheiten möglich waren? Hawaii braucht doch jetzt schon 250 Watt, wie sollen da noch 40% mehr Einheiten versorgt werden?
Die Furys basieren auf Tonga, und der ist kaum effizienter als Tahiti
Wer heute noch eine AMD GPU kauft, hat eh schon verloren.
Nicht mal bei Nano hat es mit der 1,9x besseren effizienz geklappt.
Dafür auch 2x so teuer wie die 970 Das nenn ich mal effizienz beim Geldmachendafür fast so effizent wie ein 970 aber so schnell wie ein 980
Deinen eigenen Link nicht so genau betrachtet? Steht doch drin, dass das nur Spekulation ist...
Die Gründe für den geringeren Marktanteil sind vielschichtig und liegen sicherlich nicht alleinig in den angeblichen "Versprechungen".
wie lange gibt es jetzt die 290x ? wird irgendwo noch eine alte Titan getestet ?, das Silizium herstellen kostet auch Energie und MaterialienVersteh ich grad nicht. Haben Nvidia Karten ein Ablaufdatum oder wovon redest du? Als AMD User (privat) höre ich von dem "Problem" das erste mal.
Wie schon so oft: geht ja nicht nur ums Geld alleine.
Umwelt
Lautstärke
Temperaturabgabe in den Raum
Lebensdauer der Komponenten
.
Dafür auch 2x so teuer wie die 970 Das nenn ich mal effizienz beim Geldmachen
Deinen eigenen Link nicht so genau betrachtet? Steht doch drin, dass das nur Spekulation ist...
und, dass die frühere Titan nicht mehr mitgetestet wird macht genau jetzt was?wie lange gibt es jetzt die 290x ? wird irgendwo noch eine alte Titan getestet ?, das Silizium herstellen kostet auch Energie und Materialien
...
gibt eigentlich schon mehr als den Grund "Geld"
Das ist nur fast richtig, die 980 hat halt wieder ihre eigenen Vor und Nachteile. Wir haben also 2 annähernd gleich schnelle, gleich effiziente Karten. Die Nano profitiert halt zusätzlich von HBM, sonst wäre sie nicht so effizient (und halt undervolting/clocking, aber 40 Watt spart man halt fast durch HBM), dafür hat die 980 den ganzen proprietären Nvidiablödsinn dabei.Dafür so schnelle wie 980 und eigentlich auch so teuer, ja ich weiß der Link ist sowieso blödsinn
Also ist Mantle so "frei", dass es gar nichts zum runterladen gibt?Es gibt noch kein fertiges SDK weil es noch in der Entwicklung ist, die Frage hast du absichtlich so gestellt aber bitte hier die Links Mantle ist mehr oder Vulkan
"irgendwann"? Na dann macht man ja mit dem Original G-Sync alles richtigwie kann jemand so sukzessiv die Fakten ignorieren, Free Sync wird immer besser und irgendwann deckt es auch den Bereich von G-Sync ab
Ich sehe jetzt nicht ,wo Mantle nun sonderlich frei sein soll, wenn es da gar nichts zum runterladen gibt.Wieso fragst du mich nach einem Link zum SDK, wenn du selbst weißt, dass AMD kein SDK zur Verfügung gestellt hat?
AMD´s Mantle wurde freigegeben und für Vulkan verwurstet. DAs heißt nicht, dass du das SDK einsehen kannst.
Ich sage nur Project Cars, wo AMD zu Beginn massive Probleme hatte, weil deren Treiber im CPU-Limit fest hing. Statt dann bei AMD mal zu maulen, wurde lieber der Entwickler und NVIDIA angeflamt, von wegen es wäre ja Gameworks und Betrug blablabla.Ja das ist so unglaublich massiv, ich kann gar nicht mehr spielen.
Findest du es nicht unnötig Dinge immer so stark zu übersteigern?
Ich sehe bei den Benchmarkparcours selbst mit einem 2500k keine großen Einbrüche bei Computerbase
Das macht bei der Fury X in Full HD im Vergleich zu einem i7 4770k über mehrere Spiele @ 4,4 ghz 8% aus.
Bei einer r9 390 ists schon eher Messungenauigkeit.
Tja und was ist an FreeSync nun so toll, wenn man erstmal rumfrickeln muss, um dann immer noch nicht bei der Leistungsfähigkeit von G-Sync zu sein? Könnte es sein, dass es genau deswegen das Modul + den Aufpreis gibt? Weil es technisch nicht anders machbar war/ist?Schau mal, ich hab Pumpi, weil er behauptet hat, es gäbe keine besseren Freesyncmonitore, direkt ein Gerät verlinkt und nur der Information wegen, die manuelle Anpassung der Monitore, die weit niedrigere Ranges anbieten ins Feld geführt, damit er mal sieht, dass das Problem nicht bei "Freesync" liegt, sondern bei den Scalern.
Das war eine Zusatzinformation, seine Aussage selber, habe ich widerlegt, du hast sie aus dem Zusammenhang gerissen.
Und? Gibts schon zu kaufen? Oder nur wieder große Ankündigungen? Würde sagen die Käufer der diversen G-Sync Modelle haben da offensichtlich alles richtig gemachtNixeus 30 bis 144 Hertz + Framedoubling mit dem Crimson Treiber = immernoch keine Chance?
Du hast den BEitrag um 15:37 verfasst, um 14 Uhr gab es schon die News hier auf PCGH.
Was bringt denn EIN Gerät, dass es IRGENDWANN mal zu kaufen gibt, den ganz Besitzern anderer Monitore? Irgendwie gar nichts, oder? Und da wundert ihr euch, dass G-Sync aufwändiger/teurer ist, wenn AMD es selbst 2 Jahre später nicht schafft auf das gleiche Funktionslevel zu kommen?Kannst du das mit einem Argument begründen? Ich wäre sehr gespannt.
Inwiefern kann ein Asus Gerät mit Framedoubling und großer Range von 35 bis 144 Hertz oder der Nixeus von 30 bis 144 Hertz, nicht das gleiche bieten?
Wieso habe ich nur das Gefühl dass das wiedermal Wunschgedanken eines Nvidia Sympathisanten sind, der sich um die Richtigkeit seiner Aussagen nichts schert?
und, dass die frühere Titan nicht mehr mitgetestet wird macht genau jetzt was?
Macht sie das langsamer?
Macht das den e-P.nis kaputt von denjenigen Leuten die sie sich gekauft haben, nur um eben einen solchen zu haben?
Die Titan ist ja immer noch eine superflotte Karte, wo ist das Problem? Wird eine Karte schimmlig sobald sie mal nicht mehr ständig mitgetestet wird? Da müsste in meiem PC schon ziemlich viel schimmel sein (2008er i7 @ 4.2 Ghz, läuft immer noch wie ne 1, im anderen SpielePC eine Radeon 5850, reicht nach wie vor für die meisten Games @ FullHD) usw usf.
Das ist nur fast richtig, die 980 hat halt wieder ihre eigenen Vor und Nachteile. Wir haben also 2 annähernd gleich schnelle, gleich effiziente Karten. Die Nano profitiert halt zusätzlich von HBM, sonst wäre sie nicht so effizient (und halt undervolting/clocking, aber 40 Watt spart man halt fast durch HBM), dafür hat die 980 den ganzen proprietären Nvidiablödsinn dabei.
Die beiden Karten nehmen theoretisch wenig. Hätte die fury/nano nicht das Problem des Microstotterns in vielen Spielen sowie den Preisnachteil. Die günstigste 980 die ich hier kaufen kann kostet mich ca 470, die günstigste Nano 650-670.
"auch so teuer" würde ich da mal nicht sagen, das sind mal eben 40% mehr.
geforce 980 in PCIe mit GPU (nVIDIA): GTX 980 Preisvergleich | Geizhals Österreich
Also ist Mantle so "frei", dass es gar nichts zum runterladen gibt?
Komische Definition von "frei". Ich würde es ja "unfrei" nennen.
der Mehrwert schrumpft und schrumpft, die Frequenzen wo Free Sync funktioniert werden immer niedriger"irgendwann"? Na dann macht man ja mit dem Original G-Sync alles richtig
Ich sehe jetzt nicht ,wo Mantle nun sonderlich frei sein soll, wenn es da gar nichts zum runterladen gibt.
Erklär mir das mal, sie ist schneller als die meisten gebenchten Karten, warum ist sie deiner Meinung nach überholt?warum wird nicht mehr gebenched ? weil die Karte schon überholt ist ?
Wo schreibt er denn was von dafür zahlen sollen?einfach nur Blödsinn , zeig mir den Link wo man dafür zahlen soll
Die findet man plötzlich auf magische Art und Weise in dieser ausgelutschten, 4 Jahre alten Architektur (und komm' bitte nicht daher mit Tonga sei ein völlig neuer Chip, es ist dennoch nur eine Abwandlung der uralt GCN Architektur) zumal die Rede von Fury war. Du springst von einem Thema zum nächsten sobald du merkst, du hast unrecht, aber zugeben kannst du es einfach nicht.mit dem Crimson Treiber sollen für Tonga bis zu 20% noch drin sein
In erster Linie kann AMD nicht wirtschaften. Das schlägt sich nicht nur im Marktanteil, sondern auch in den Bilanzzahlen nieder.
flankendiskriminator schrieb:Ich sehe jetzt nicht ,wo Mantle nun sonderlich frei sein soll, wenn es da gar nichts zum runterladen gibt.
Ich sage nur Project Cars, wo AMD zu Beginn massive Probleme hatte, weil deren Treiber im CPU-Limit fest hing. Statt dann bei AMD mal zu maulen, wurde lieber der Entwickler und NVIDIA angeflamt, von wegen es wäre ja Gameworks und Betrug blablabla.
ja und was ist an FreeSync nun so toll, wenn man erstmal rumfrickeln muss, um dann immer noch nicht bei der Leistungsfähigkeit von G-Sync zu sein? Könnte es sein, dass es genau deswegen das Modul + den Aufpreis gibt? Weil es technisch nicht anders machbar war/ist?
Und? Gibts schon zu kaufen? Oder nur wieder große Ankündigungen? Würde sagen die Käufer der diversen G-Sync Modelle haben da offensichtlich alles richtig gemacht
Was bringt denn EIN Gerät, dass es IRGENDWANN mal zu kaufen gibt, den ganz Besitzern anderer Monitore? Irgendwie gar nichts, oder? Und da wundert ihr euch, dass G-Sync aufwändiger/teurer ist, wenn AMD es selbst 2 Jahre später nicht schafft auf das gleiche Funktionslevel zu kommen?
Und da wundert ihr euch, dass G-Sync aufwändiger/teurer ist, wenn AMD es selbst 2 Jahre später nicht schafft auf das gleiche Funktionslevel zu kommen?
Stimmt absolut. Nur kommt dieser geringe Marktanteil ja nicht von ungefähr. Man hatte zuletzt einen höheren Marktanteil 2004, seither ist Nvidia teils massiv vorne. Das heißt halt auch, seither verdient man wesentlich weniger Geld.Die Dinge sind sind in Wahrheit viel komplexer.
Auf der einen Seite wird AMD mangelnde Konkurrenzfähigkeit vorgeworfen und auf der anderen Seite können sie nicht wirtschaften.
Wie soll man mit einem geringen Marktanteil und daher wenig Einnahmen auch sinnvoll wirtschaften? Ich würde mal behaupten es ist ziemlich schwer und komplex das alles unter eine Hut zu bringen.
Naja, ich kann jetzt nur für mich antworten, aber ich habe mir in vielen Threads die Arbeit angetan sinnvoll zu Argumentieren, Links rauszukramen usw usf.Das was mich stört ist, dass es hier von dir immer nur ganze einfache und pauschale Antworten zu schwierigen Fragen gibt, obwohl in Wirklichkeit viel mehr dahinter steckt.
Draw Calls/Overhead waren schon immer ein gewisses Problem bei AMD.Project Cars war ein Fall wo bei AMD ganz offensichtlich etwas ineffizient lief, vermutlich hatte es mit den Drawcalls zu tun, das wurde verbessert, aber nicht behoben.
Das ist jetzt ein einziges Beispiel von etwa einer handvoll.
Erklär mir das mal, sie ist schneller als die meisten gebenchten Karten, warum ist sie deiner Meinung nach überholt?Wo schreibt er denn was von dafür zahlen sollen?Die findet man plötzlich auf magische Art und Weise in dieser ausgelutschten, 4 Jahre alten Architektur (und komm' bitte nicht daher mit Tonga sei ein völlig neuer Chip, es ist dennoch nur eine Abwandlung der uralt GCN Architektur) zumal die Rede von Fury war. Du springst von einem Thema zum nächsten sobald du merkst, du hast unrecht, aber zugeben kannst du es einfach nicht.
Ich weiß auch nicht, warum du immer mit Händen und Füßen AMD verteidigst als würde dein Leben davon abhängen, kannst nicht einfach mal deinen Diskussionspartnern Recht geben oder zumindest teilrecht, anstatt immer die Fakten zu verdrehen?
Bezüglich Tonga:
3DCenter Forum - AMD/ATI - Pirate Islands: Bermuda, Fiji, Treasure | mobile: Strato, Litho - 2015 - Seite 675
Nix neues