lucky1levin
BIOS-Overclocker(in)
Deine GPU mag keinen AMD Untersatz
Da hat sich nichts geändert.Wie sieht es aktuell mit den Leistungseinbußen bei Arc ohne aktives reBAR aus?
nein absolut nicht. Sie sind WEIT weg von den schlechtesten Grafikkarten, sie sind sogar weit weg von den bekannteren schlechten GrafikkartenHandelt es sich bei den A580 / A750 / A770 um die schlechtesten Grafikkarten aller Zeiten?
Die Frage dürfte schwierig zu beantworten sein
ja, der allererste Chip von Intel ist alles andere als effektiv oder effizient. Aber - wie bitte, es schaut 0.0 raus?Ich kann daher nur für mich sprechen und diese Frage mit einem definitiven Ja beantworten.
Die Karten sind nicht nur aufgeblasen bis zum geht nicht mehr, 21.7 Milliarden Transistoren bei einer Fläche von gigantischen 406mm2! Trotz dieses extremen Aufwand schaut am Ende 0 wirklich 0,0 dabei raus.
Ja, und umgekehrt ist es schon vorgekommen, dass Nvidia mit knapp der Hälfte des Verbrauches von AMD da gestanden ist bei ähnlicher Performance. Der Unterschied. AMD/ATI macht das seit Jahrzehnten, Nvidia auch.Wirklich unglaublich wenn ich es nicht selber gesehen hätte, würde ich es nicht glauben und eher denken es will mich hier jemand 1. April mäßig verarschen.
AMD könnte wohl mit einem ca. 140mm2 Einsteiger-Chip eine ähnliche Performance wie der A580 liefern bei halben Verbrauch. Dies sollte man sich mal auf der Zunge zergehen lassen.
Dann sollte AMD schleunigst mit dem PReis runter, dann kriegen sie auch wieder MarktanteilePro 300mm Wafer dürfte daher Navi 33 im selben TSMC 6nm Prozess gut und gerne in etwa die 2.5 Fache Ausbeute liefern!
Es war sicher nie geplant in der ersten Generation hohe Gewinne zu erzielen. Aber auch bei 300 Dollar verdient man noch genug.Entsprechend wird Intel aus Verzweiflung die Karten wohl zum Selbstkostenpreis oder gar mit Verlust verkaufen müssen.
Ironischerweise geht aber bei AMD in letzter Zeit hier auch nicht alles Glatt und bei denen ist es - erneut - nicht der erste Versuch.Vom Verbrauch bei Idle, Youtube Gaming wollen wir lieber erst gar nicht anfangen. Intel wo soll das nur alles hinführen das grenzt schon fast an suizidaler Selbstzerstörung.
Wenn man die vielen Milliarden die AMD und Nvidia in den letzten 30 Jahren rein in die GPU Entwicklung investiert hat, kommen mir da eher die Tränen wie eine andere Firma da so flott in Schlagdistanz kommen kann.Da kommen mir schon fast die Tränen wenn ich an all die schönen Silizium Wafer denke die mit Verlust verkauft werden müssen. Einfach nur traurig Nvidia und AMD hätten so viel mehr aus diesen begrenzten Ressourcen heraus holen können.
Rein im Desktop jetzt: im Highend steht man was Effizienz betrachtet katastrophal da. Die unteren Märkte/Chips sind aber großteils sehr konkurrenzfähig, effizient und auch teils günstiger als die Konkurrenz.Nur betreibt niemand der sich einen 13900k/14900k leistet, diese CPU mit 45 oder 65 Watt. Also nein, sie stehen überhaupt nicht gut da.
dann braucht man eine Fanbase, die nennt das dann "fine wine".Wie Dave aber schon sagt, was nützt es dann wenn es ein Jahr dauert.
Falsch. Denn man kann die Treiberprobleme nicht beheben, ohne ein PRodukt am Markt zu haben. Was im Labor funktioniert, funktioniert in der Realität oft nicht. Die einzige Chance von Intel genug Erfahrung zu sammeln ist eben tatsächlich Erfahrung zu sammeln - also ein Produkt zu releasen.Der Fehler von Intel war nicht in das GPU Geschäft einzusteigen, man hätte nur die Treiberarbeiten zu erst Abschließen müssen.
Das Hänne-Ei prinzip umgedreht Funktioniert nicht.
Das macht ja nix, dann bist du ggf. gar nicht Zielgruppe und beide Seiten sind glücklich.spielen diese Karten in einer Leistungsklasse die mich nicht interessiert.
DX9 lief unbefriedigend, aber nicht gar nicht AFAIR, aber es gibt auch heute Karten von AMD die kommen mit alten DX Titeln nicht zurecht.Rollora nicht ganz, den DX9 lief z.B. am Anfang gar nicht, das wird auch im Labor nicht Funktioniert haben
Ansonsten sehe ich das wie Du und wie gesagt bringen die eine Fette 32GB HBM Consumer Karte, take my money.
Ich denke und erwarte, es wird soviel Know How gesammelt, dass es beim nächsten mal schneller geht. Ich finde es jedenfalls seht schön, dass Intel mitmischt. Und wenn man jetzt noch die Dominanz von Cuda durchbricht, wird alles besser, weil der Wettbewerb offener ist.Wenn der Nachfolger genauso lange benötigt, bis die Treiber die eigentliche Leistung freischalten, dann ist es meiner Ansicht nach kein guter Kauf, selbst, wenn der Preis stimmt.
Als Intel Gegner wäre eine differenzierte Betrachtung auch schwer für dich zu verdauen gewesen.Ich kann daher nur für mich sprechen und diese Frage mit einem definitiven Ja beantworten.
Die sind auch schon etwas älter und kommen dennoch in RT an die AMD Effizienz heran. Das muss erst einmal schaffen. Nvidia und AMD haben jede Menge Know How. Vorsprung.Die Karten sind nicht nur aufgeblasen bis zum geht nicht mehr, 21.7 Milliarden Transistoren bei einer Fläche von gigantischen 406mm2! Trotz dieses extremen Aufwand schaut am Ende 0 wirklich 0,0 dabei raus.
Denke ich bei deinem Beitrag auch. Wer kann den schon ernst nehmen.Wirklich unglaublich wenn ich es nicht selber gesehen hätte, würde ich es nicht glauben und eher denken es will mich hier jemand 1. April mäßig verarschen.
PCGh misst 27%, insgesamt 19% und bei RT ist die AMD hinten.und wenn dies alles nicht schon genug wäre, ist die RX7600 (Raster 1080p) dabei auch noch 30% schneller als die A580 und
Da hat einer wohl Angst, dass Intel AMD bei GPUs in so mancher Metrik schlagen könnte.. Intel wo soll das nur alles hinführen das grenzt schon fast an suizidaler Selbstzerstörung.
Verlust kann ich mir nicht vorstellen, aber Gewinne werden sie nicht machen.Da kommen mir schon fast die Tränen wenn ich an all die schönen Silizium Wafer denke die mit Verlust verkauft werden müssen.
Das hat architektonische Hintergründe (Konfiguration des Speichercontrollers) und wird voraussichtlich auch bei den nachfolgenden Generationen so sein.Wie sieht es aktuell mit den Leistungseinbußen bei Arc ohne aktives reBAR aus?
Auf älteren Rechner mit Ryzen 1 oder Intel bis zur 7. Generation gingen da doch 30% flöten? Ist das immer noch so?
Ja also hat bei dir im Bekanntenkreis auch niemand eine von AMD nehme ich an.Wenn der Nachfolger genauso lange benötigt, bis die Treiber die eigentliche Leistung freischalten, dann ist es meiner Ansicht nach kein guter Kauf, selbst, wenn der Preis stimmt.
Meinem Bekanntenkreis kann ich diese Grafikkarten jedenfalls nur empfehlen, wenn ab Tag 1 der Installation alles reibungslos läuft. Ein stabiler Treiber ist dafür Pflicht, denn diese updaten User nicht, die nicht mal wissen, was das ist.
Spricht der mit einer 6600 die in Raytracing auf dem Niveau einer Arc 380 istHandelt es sich bei den A580 / A750 / A770 um die schlechtesten Grafikkarten aller Zeiten?
Die Frage dürfte schwierig zu beantworten sein, denn es gab schon so einige Kandidaten die für diesen Titel in Frage kommen könnten.
Ich kann daher nur für mich sprechen und diese Frage mit einem definitiven Ja beantworten.