News Konsole rettet AMD vor dem Bankrott: Der Pitch mit der Playstation 4

Abseits der Effizienz in Watt pro FPS gibt es den Trend hin zu immer höheren Bildraten, dazu entsprechend 165 Hz Monitore und mehr. Einerseits ist das verständlich, andererseits sind nackte Werte wie Watt pro FPS und tatsächlicher Gesamtverbrauch 2 unterschiedliche paar Schuhe.

Man könnte natürlich auch eine RTX 4090 auf 60 FPS limitieren... :ugly:
Auf der anderen Seite beschweren sich viele über die Kosten, kaufen dann aber doch eine kleine RTX 4060 für 320€. Dafür hat man auch schon RX 7600 XT oder 6750 XT gesehen. Die sind nicht so effizient, aber sicherlich mit mehr VRAM ausgestattet.

AMD hat diese Entwicklung schon mit RDNA 3 unterschätzt, hoffentlich wird RDNA 4 eine taugliche Generation zur Überbrückung wie RDNA 1.

Naja die amd Karten sind nur dann lohnenswert im vergleich wenn man wirklich nur Interesse an der Rasterisierung und keinerlei Softwarefeatures hat.

Dlss ist qualitativ besser als fsr. Dlaa bietet aktuell den weltbesten AA, den es gibt. Grafikkarten capturing für streaming und aufnahmen ist auch bis vor 2 Generationen (aktuellster stand ist mir nicht bekannt) um längen besser gewesen. Mit moonlight hab ich einen ab werk einwandfrei funktionierenden remote dienst, der erst vor nem Jahr ne Betaversion für AMD angeboten hat und bis vor wenigen Monaten bei mir nicht funktionierte.

Amd link lief immer schon schlecht und wurde inzwischen auch aufgegeben...

Amd fängt so langsam an features von Nvidia Broadcast zu kopieren aber bis dato gabs das eben nur bei nvidia.

Ja das sind tatsächlich features die ich nutzen würde und daher darauf Wert lege. Selbst wenn ich amd 1000€ in den rachen schieben würde bekomme ich das alles nicht.

Stand heute würde ich mir definitiv ne amd cpu mit 3d-v-cache aber ne nvidia gpu holen....
 
AMD sollte halt aufpassen, auch in Zukunft Konsolendeals zu bekommen. Nur weil sie diese jetzt nicht mehr zum Überleben brauchen, sind sie nicht plötzlich unwichtig. Ohne den Hintergrund, dass sowohl PS4 (Pro) als auch One (X) auf GCN gesetzt haben, hätte die RTG sicherlich deutlich schlechter durchgehalten.
AMD hat diese Entwicklung schon mit RDNA 3 unterschätzt, hoffentlich wird RDNA 4 eine taugliche Generation zur Überbrückung wie RDNA 1.
Halte ich für reines Marketing, für Schadenskontrolle. AMD hat im Vorfeld von RDNA 3 von großen Effizienzfortschritten gesprochen, die dann in der Praxis nicht eintrafen. Ich finde dafür den Artikel von vor zwei Monaten von Raff perfekt für geeignet:

Selbst wenn man dort die Raytracing-Effizienz heranzieht (was künstlich günstig für RDNA3 ist) und den besten Wert aus dem Testfeld nimmt, werden die proklamierten etwa 50% Effizienzgewinn von RDNA3 nicht erreicht. Dort ist wirklich etwas massiv schiefgelaufen und bislang ist nach wie vor unklar, was eigentlich!
 
Du hast mein Kommentar aus dem Zusammenhang gerissen und es nicht einmal richtig durchgelesen, bzw die Logik dahinter erkannt.
Herzlichen Glückwunsch zu erfundenen Tatsachen und einem provozierenden Kommentar.
Der Gund ist mir unbekannt, vlt weil Du Dir eine NVidia Karte gekauft hast und Dich grundlos angegriffen fühlst?
Da ist nichts aus dem Zusammenhang gerissen. Du sagst das bessere Produkt zu kaufen ist langfristig die falsche Wahl und bezeichnest Nvidia-Käufer als Jünger (so viel zum Thema provozierend und grundlos angegriffen fühlen). Das ist erstens komplett daneben und zweitens inhaltlich Schwachinn.

Das GPUs teurer werden liegt nicht daran, dass Kunden eine falsche Wahl treffen, sondern daran, dass AMD trotz Nvidias Mondpreise nicht fähig ist etwas gleichwertiges günstiger anzubieten.
 
Die teils fehlenden Softwarefeatures habe ich persönlich zur Kenntnis genommen. Die vermisst man nur, wenn man sie vorher bei Nvidia auch genutzt hat.

AMD hat mehrere Punkte mit RDNA 3 verschlafen:
-größere Raytracing-Performance (ist vorhanden, aber zu wenig)
-Effizienz, wobei es mit einem Bildschirm bis 120 Hz und der monolithischen Navi 33 wohl brauchbar ist (:ugly:)
-teilweise Software-Features und Upscaling (mir reicht FSR, anderen vlt. nicht)
-schon Navi 32 war recht spät und Navi 33 kaum besser als Navi 23 KXT

Positiv:
AV1 und VP9 Encoding sind bei RDNA 3 an Board, die Treiber-Oberfläche selbst gefällt mir persönlich sogar besser.
Mittlerweile kann sich eine RX 7800 XT dank UE5 durchaus von der 6800 XT absetzen.

Meinung:
Ein Teil potenzieller Käufe wird zusätzlich noch immer von voreingenommenen Meinungsbildern aus der Steinzeit alá Treiberproblemen belastet. AMDs schwaches Marketing ist da auch keine große Hilfe.
 

Anhänge

  • 1.png
    1.png
    239,6 KB · Aufrufe: 24
  • 2.png
    2.png
    114,3 KB · Aufrufe: 24
  • 3.png
    3.png
    261,5 KB · Aufrufe: 18
  • 4.png
    4.png
    217,6 KB · Aufrufe: 21
Zuletzt bearbeitet:
Das GPUs teurer werden liegt nicht daran, dass Kunden eine falsche Wahl treffen, sondern daran, dass AMD trotz Nvidias Mondpreise nicht fähig ist etwas gleichwertiges günstiger anzubieten.
Also es liegt schon noch an diversen weiteren Gründen. Altes Posting bzw. ein Abschnitt dazu:
Gerne ignoriert wird in diesem Kontext, was für ein Umbruch Kepler dargestellt hat. Der Wechsel hin zur PowerTarget-Fixierung hat dafür gesorgt, dass (bei guter Auslastung) mittlerweile die teuersten Karten die besten Karten sind. Was ich damit meine ist, dass früher eine 480 gegenüber einer 460 durchaus auch einige Nachteile aufwies. Seit der ersten Titan ist das nicht mehr der Fall. Einfach das PowerTarget senken und die Mittelklasse ist am Ende. Das hat AMDs Mittelklassekompetenz schwer entwertet und darüber hinaus die Basis gesetzt, dass heute so hohe Preise verlangt werden können. Anders gesagt: Eine 2080ti im Fermi-Stil hätte ich mir nur unter ganz krassen Umständen gekauft. Die hätte Nvidia verramschen müssen, mit der 2080ti im Kepler-Stil können sich mich schröpfen.
Des weiteren hat AMD definitiv auch reine Größenprobleme. Weil sie so lange Nummer 2 sind, ist es natürlich auch schwerer, mal Nummer 1 zu werden.

Und vor allen Dingen (durch den vorherigen Punkt deutlich erschwert) braucht AMD mal eine Generation, in der Nvidia klar geschlagen wird. Also rundherum, am besten in jeder oder Chipklasse; maximal ein gleichstand in manchen Klassen wäre annehmbar. Nicht in jeder Preisklasse, denn Preise lassen sich danach ja noch durchaus anpassen, sondern in jeder Chipklasse. Nvidia hatte mehrere solche Generationen. Das letzte Mal, dass AMD so richtig dominant war, war zu HD 5000er-Zeiten, weil Nvidia dort einfach zu spät war.

Positiv:
AV1 und VP9 Encoding sind bei RDNA 3 an Board, die Treiber-Oberfläche selbst gefällt mir persönlich sogar besser.
DP 2.1 ist auch dabei, aber der Vorteil wurde durch die massiven Verspätungen von DP2.1-Monitoren ziemlich aufgefressen. Ansonsten hat AMD es wieder nicht geschafft, die offene Flanke zu nutzen und die RDNA3-Karten bereits PCIe-5.0-kompatibel zu gestalten. Ein bitterer Fehler, nicht so bitter wie damals bei der Radeon VII (bei der sogar der Chip schon für den kommenden PCIe-Standard gerüstet war, dieser aber einfach bei der Consumer-Auskopplung nicht freigeschaltet war), aber immer noch bitter genug. Denn das hätten sie marketingtechnisch ausschlachten können, selbst wenn der Effekt freilich gering gewesen wäre. (Vorteil wäre aber halt auf jeden Fall gewesen, dass sie auch mit PCIe 5.0 x8 hätten betrieben werden können und somit Lanes für andere Zwecke freigewesen wären)
 
Zuletzt bearbeitet:
Also es liegt schon noch an diversen weiteren Gründen. Altes Posting bzw. ein Abschnitt dazu:
Kepler war wirklich der KO für AMD (und Maxwell das Nachtreten). Ich hatte auch mal gelesen, dass irgendein Patent das ermöglicht haben soll, worauf AMD einfach keinen Zugriff hat, aber weiß nicht ob das damit gemeint war.
Und vor allen Dingen (durch den vorherigen Punkt deutlich erschwert) braucht AMD mal eine Generation, in der Nvidia klar geschlagen wird. Also rundherum, am besten in jeder oder Chipklasse; maximal ein gleichstand in manchen Klassen wäre annehmbar. Nicht in jeder Preisklasse, denn Preise lassen sich danach ja noch durchaus anpassen, sondern in jeder Chipklasse. Nvidia hatte mehrere solche Generationen. Das letzte Mal, dass AMD so richtig dominant war, war zu HD 5000er-Zeiten, weil Nvidia dort einfach zu spät war.
Ja, AMD war das letzte Mal vor 15 Jahren wirklich vorne. Kommt immer wieder nah ran, trotz weniger Ressourcen, kann aber nie überholen. Es hat sich so eingependelt.

Der Nachfolger von RDNA 4 soll ja laut Gerüchten eine ganz neue Architektur werden. Vielleicht klappt es dann mal. Aber Hardware wird auch immer unwichtiger. Wer weiß was z.B. DLSS 4 alles so kann. Nvidia wird seine AI-Position ausnutzen. Wenn man Algorithmen verkauft macht man noch mehr Gewinn als wenn man fette Wafer verbrät. Die wandern dann in die Rechenzentren.
 
Da ist nichts aus dem Zusammenhang gerissen. Du sagst das bessere Produkt zu kaufen ist langfristig die falsche Wahl und bezeichnest Nvidia-Käufer als Jünger (so viel zum Thema provozierend und grundlos angegriffen fühlen). Das ist erstens komplett daneben und zweitens inhaltlich Schwachinn.

Das GPUs teurer werden liegt nicht daran, dass Kunden eine falsche Wahl treffen, sondern daran, dass AMD trotz Nvidias Mondpreise nicht fähig ist etwas gleichwertiges günstiger anzubieten.

Du hast nur den einen Satz für Deine Antwort verwendet. Hast Du nicht gelesen, dass ich auch bestimmte NVidia Modelle lobe. Das hast Du gänzlich ignoriert.
Und ja, auch wenn Du es nicht wahrhaben möchtest, es gibt sehr viele NVidia Jünger. Dich habe ich damit allerdings nicht gemeint, beleidigt oder provoziert. Bei jedem Kauf gibt es immer einen Entscheidungsgrund. Und naja manchmal eben nur weil die Karte grün ist. ;)
Und das vermeintlich "Bessere" zu kaufen ist eben nicht immer richtig. Auch wenn es weh tut. Darüber müssen wir aber auch gar nicht "philosophieren". Das ist nun mal meine Meinung. Man sollte nicht immer nur den Riesen unterstützen, weil er in bestimmten Preisregionen ein paar Frames mehr bietet.
Dennoch gibt es AMD Modelle die sich eben auch in "der grünen Gaming Welt" durchaus lohnen und preislich und von der Leistung attraktiver sind. Die Modelle nannte ich schon.

Dennoch ein kleines Beispiel:
Lohnt es sich wirklich eine RTX 3050 oder 3060 zu kaufen, nur weil sie Raytracing bietet, was in der Praxis mit diesen Karten aber meistens untauglich bleibt? Die RX 6600 ist von der Rohleistung einfach besser und günstiger. Warum also greifen dennoch viele einfach aus Gewohnheit oder wegen "falscher" Beratung zu grün? Muss eigentlich nicht sein grün dort weiter zu stärken. Warum auch? Damit sie das absolute Monopol erreichen und auch Dich in Zukunft doppelt zur Kasse bitten? Warum sollte man so etwas unterstützen? Am Ende hilft leider nur Konkurrenz und die Konkurrenz ist in manchen Bereichen zum Glück besser. Es braucht einfach einen Ausgleich, siehe Intel als AMD noch nichts entgegenzusetzen hatte. Die Intel CPUs stagnierten von der Leistung und die Preise waren lächerlich hoch.
 
Zuletzt bearbeitet:
Aus dem Beitragstext oben :

" eine Wirtschaftskrise grassierte um den Globus und die AMD-Aktie ist um 2 Euro wert. Keine guten Aussichten für das Unternehmen, das rund zwei Jahre zuvor noch ATI übernommen hatte und sich mit Bulldozer einen "kompletten Fehlschlag" leistete. "


Die sogenannte " Wirtschaftskrise " war eigentlich eine Bankenkrise .
Ausgelöst von einer sehenden Auges herbeigeführten Imobilienblase !?
Ausbaden durfte das damals die Allgemeinheit und weder Verantwortliche Manager noch Politiker wurden dafür zur Rechenschaft gezogen.:devil:

Intel und Nvidia ging es wärend dieser Zeit nicht wirklich schlecht .

Nur Amd war dank vieler Fehlentscheidungen des Managements fast am Ende .
Amd,s Bulldozer war in vielerlei Hinsicht Murks !
Gekauft wird Amd wegen des billigeren Preises , hauptsache die Kiste läuft irgendwie .:ugly:

Ich habe damals die Amd Schrott Aktien gekauft .

Und ich habe es nicht bereut .

Ein sehr kleiner Teil dieses Geldes steckt heute in einigen Intel - Nvidia Kisten
:D
 
Vor allem die Abnehmer. Der Vorsprung ist gar nicht mal so groß wenn man sich die Rohleistung zum Preis anschaut.
Besonders die RX 6600 ist mit Abstand die einzige bezahlbare Karte im eigentlich so wichtigen LowBudget Bereich.
Intel ist momentan klarer Preisleistungssieger
Screenshot 2024-07-08 090116.png

Und die Arc A770 für 330-350€ macht der 7600XT und in Teilen der 4060 Konkurrenz.
Ich bin mehr als zufrieden mit der Leistung meiner Intelkarte.
Aber AMD hat sich wirklich gut entwickelt. Intel schläft allerdings auch nicht mehr sooooooo tief.
Hatte am We ein i5 14600f in der Hand. Nette CPU und wirklich sparsam, wenn man möchte.
 
Lohnt es sich wirklich eine RTX 3050 oder 3060 zu kaufen, nur weil sie Raytracing bietet, was in der Praxis mit diesen Karten aber meistens untauglich bleibt? Die RX 6600 ist von der Rohleistung einfach besser und günstiger. Warum also greifen dennoch viele einfach aus Gewohnheit oder wegen "falscher" Beratung zu grün? Muss eigentlich nicht sein grün dort weiter zu stärken. Warum auch? Damit sie das absolute Monopol erreichen und auch Dich in Zukunft doppelt zur Kasse bitten? Warum sollte man so etwas unterstützen? Am Ende hilft leider nur Konkurrenz und die Konkurrenz ist in manchen Bereichen zum Glück besser. Es braucht einfach einen Ausgleich, siehe Intel als AMD noch nichts entgegenzusetzen hatte. Die Intel CPUs stagnierten von der Leistung und die Preise waren lächerlich hoch.
Zu der Zeit kam allerdings noch etwas anderes hinzu: Lieferbarkeit. Was halfen den Usern Karten, die sie gar nicht kaufen konnten? Im Mining-Boom-2.0 wurde alles abverkauft und Nvidia konnte in dem Schrottnode, den niemand sonst (auf Herstellerseite) haben wollte, einfach mehr produzieren.
 
Die teils fehlenden Softwarefeatures habe ich persönlich zur Kenntnis genommen. Die vermisst man nur, wenn man sie vorher bei Nvidia auch genutzt hat.
Es reicht auch schon mit offenen Augen durch die Welt zu gehen, dazu muss man nicht selbst ne Nvidia GPU besitzen, es reichen hierfü schon bissl Recherche, Unterhaltungen mit Freunden und teilweise gar Videos....

Ich persönlich lauf mit einer vega64 rum. Davor hatte ich eine RTX 970, die hatte all diese Features natürlich noch nicht.
Mir reicht es schon die Probleme auf eigener Haut zu erleben, wofür Nvidia klar Lösungen adressiert.

Die Leute hören das Tippen deiner Tastatur, egal wie du die Empfindlichkeit und Filter deines Headsets einstellst, weil es nicht hochwertig genug ist? Nvidia blendet dir selbst nen Staubsauger aus...

Du möchtest Streamen, während die Spiele deine Hardware zu 100% auslasten? Keine Chance, das wird Ruckeln wie Sau, wenn du nicht runter drosselst, Nvidia schafft es die Last so zu verteilen, das weder die Spiele noch der Stream ruckeln. Kein Ahnung wie, aber es geht.

Du ärgerst dich über Geistartefakte im Stream? Tja Nvidia hat sie nicht. (Zumindest nicht so deutlich wahrnehmbar) etc.

Klingt hier massiv wie ein Werbepost ich weiß, aber das sind einfach meine Erfahrungen mit Nvidia.
Der Hauptgrund neben dem 33% reduzierten Preis im Vergleich warum ich bei AMD gelandet war, war mein Freesync Monitor.... 5 Wochen nach Kauf meiner Grafikkarte kündigte Nvidia an auch Freesync Monitore zu supporten lol....

Dennoch die normalen Dienste verrichtet sie gut und meine Güte sieht der Nvidia Systemmanager altbacken und hässlich aus verglichen mit AMD welche einfach eine schöne Software bietet die GFExperiene, Systemmanager, Shadow alles miteinander vereint..... Ist neuerdings aber auch seitens nvidia angekündigt worden, dass da zukünftig ne kombisoftware erscheint...

Vor Treiberproblemen war ich bei beiden Herstellern größtenteils verschont...
 
Es reicht auch schon mit offenen Augen durch die Welt zu gehen, dazu muss man nicht selbst ne Nvidia GPU besitzen, es reichen hierfü schon bissl Recherche, Unterhaltungen mit Freunden und teilweise gar Videos...
Ich weiß, meine RTX 3060 ist in den Zweit-PC gewandert.
Meine Frau kann so Hogwarts Legacy mit DLAA am TV zocken und ich kann in Ruhe die RX 7600 ausprobieren.
Die habe ich günstig im Alternate Outlet erstanden. Die Kühlung der Phantom Gaming ist leise und stark, abseits davon interessiert mich Streaming aber auch nicht.

Erwähnenswert:
Die vergangene Minute einer schönen Multiplayer-Szene konnte ich auch schon 2019 mit der RX 480 speichern.
Das wissen viele nicht.
 
Das GPUs teurer werden liegt nicht daran, dass Kunden eine falsche Wahl treffen, sondern daran, dass AMD trotz Nvidias Mondpreise nicht fähig ist etwas gleichwertiges günstiger anzubieten.
Geht ja auch gar nicht. Nur Idioten würden sich das erhoffen. Selbst wenn AMD jetzt in dieser Sekunde beschließen wurden beide nur noch genau den selben Chip zu produzieren, müsste AMD ihn teurer verkaufen, da sie ihn viel teurer fertigen würden. Nvidia hat eine wievielfach höhere Absatzmenge? Entsprechend Rabatt bekommen sie beim Fertiger, wohingegen AMD für weniger Chips eben teurer in die Tasche greifen müsste.

Es ist dennoch an den Kunden, dem verkaufenden seine Grenzen aufzuzeigen. Wird das Topmodell zu teuer, dürfen wir nur noch das zweitbeste kaufen. Ganz einfach. Sind wir dazu nicht bereit, dürfen wir uns auch nicht beschweren.
 
Schau dir die Situation 2016 mit Intel bei CPUs an.
Schon James Bond sagte, "Sag niemals nie".
Allerdings hat sich Intel anders als Nvidia wirklich extrem auf ihren Lorbeeren ausgeruht.
Fixe 5% Performanceverbesserungen jedes Jahr mit Entwicklung auf Sparflamme, konstant steigende Preise (selbst für alte Produkte) speziell in der HEDT-Schiene und unnötiges Sparen am falschen Ende (EUV Anlagen nicht gekauft)

Während ich selbst kein Fan von Nvidia bin, ihre Innovationsleistung und Geschick im Marketing muss man anerkennen.
...kann mich immer noch in den Ar*** beissen das ich nicht bei ~1,50€ massivst zugeschalgen hatte.
I feel ya. Ich wollte eigentlich knapp 1000€ bei ~4$ investieren, bevor Zen rauskam, brauchte dann aber das Geld anderweitig.
I'm GPU Markt ist AMD anteilsmäßig zwar weit weit weg von Nvidia, aber ehrlich gesagt leistungstechnisch fehlt gar nicht so viel. Vor allem in Anbetracht dessen wie viel mehr Geld und Ressourcen Nvidia hier aufwendet. Bin eigentlich jedes Mal aufs neue wirklich erstaunt wie viel die Ingenieure bei AMD hinbekommen mit dem was ihnen zur Verfügung steht. Hut ab.
Nvidia hat halt das Halo-Produkt und du hast Fanboys die auf den "Schwächen" von AMD GPUs vom Jahre Schnee rumreiten. Davon lassen sich viele Käufer beeinflussen.
Und was Marketing angeht ist AMD eindeutig im Nachteil gegenüber Nvidia.

Allerdings bin ich gespannt wie die nächste Gen preismäßig und von der Verfügbarkeit her aussieht da man mit AI Chips derzeit einfach mehr Geld macht.
 
Intel ist momentan klarer Preisleistungssieger
Anhang anzeigen 1464234
Und die Arc A770 für 330-350€ macht der 7600XT und in Teilen der 4060 Konkurrenz.
Ich bin mehr als zufrieden mit der Leistung meiner Intelkarte.
Aber AMD hat sich wirklich gut entwickelt. Intel schläft allerdings auch nicht mehr sooooooo tief.
Hatte am We ein i5 14600f in der Hand. Nette CPU und wirklich sparsam, wenn man möchte.

Ich mag Intel zwar nicht so, aber die Konkurrenz ist aktuell dennoch zu begrüßen.

Allerdings hast Du einfach nur ein Bild ohne Quelle eingebunden, welches einfach nur ein paar Balken zeigt. Die Balken dort könnten alles mögliche bedeuten.

Ich habe z.B. bei Computerbase recherchiert und dort schneidet die RX 6600 in der Rohleistung besser ab als die Arc A580. Ich vermute das sind Ergebnisse mit RT, wo die Arc vorne liegen könnte oder doch irgendwelche Gesamt-Fazit-Werte? Ich bin da auch nicht jeden Monat auf dem laufenden, vor allem nicht bei den Preisen.

Der Preis der Arc ist in den letzten Monaten sicherlich noch gesunken, da sie wohl nur wenige Abnehmer findet. Gut für den Kunden. Die Preise bei AMD blieben dagegen stabil, wie bei NVidia auch.

Bei den Treibern bin ich mir dann nicht mehr so sicher. Klar Intel ist dort sehr bemüht, aber auf dem Niveau der Konkurrenz ist man in vielen Lagen wohl noch nicht. Ist ja nicht schlimm, das braucht seine Zeit.

Die Idle Leistungsaufnahmen der Intel Arc liegen allerdings sehr hoch, das wäre auch ein Punkt gegen die Arc. Ich weiß nicht ob sie da mittlerweile ausgebessert haben. Die Idle Zeiten überwiegen ja die PC Laufzeit und sind somit sehr wichtig. Aber auch bei Last liegen die Intel eher hinten. Daher frage ich mich erst recht woher dieses Balkendiagramm kommt und was es ausdrücken soll.

Allerdings nutze ich sehr viel Linux und dort sind die Intel Arc Grafikkarten nicht zu gebrauchen. Gut das betrifft nur Leute mit Linux und AMD hat dort ja sowieso die Nase vorn und für mich noch ein guter Grund AMD zu nutzen.

Jedes System läuft anders und wenn Du mit der Arc zufrieden bist, dann passt es doch.
Jedenfalls hast Du mal etwas neues probiert, abseits von grün oder rot und es hat sich für Dich wohl gelohnt.
Es ist bei Hardware leider immer noch so, nur Konkurrenz belebt das Geschäft.

Zu der Zeit kam allerdings noch etwas anderes hinzu: Lieferbarkeit. Was halfen den Usern Karten, die sie gar nicht kaufen konnten? Im Mining-Boom-2.0 wurde alles abverkauft und Nvidia konnte in dem Schrottnode, den niemand sonst (auf Herstellerseite) haben wollte, einfach mehr produzieren.

Ich sah zu dieser (zum Glück weit zurückliegender Zeit) eigentlich keine Grafikkarte mehr zum Kauf. Weder vom Preis noch zur Verfügbarkeit. Da war es egal ob rot oder grün. Die waren alle Sch***e. :D
Das was Du da ansprichst gilt wohl eher für den Firmenbereich und der professionellen Nutzung, oder?

Aber aktuell ist eine RX 6600 für die meisten vom Consumer-Markt sicher am besten zu gebrauchen. Gute Leistung, guter Preis, hohe Kompatibilität (Linux).
Was nützt es den Käufern eine RTX 4060 zu einem hohen Preis unterzuschieben, wenn sie die Features (für die sie offensichtlich draufzahlen) sowieso nicht nutzen oder nicht nutzen können? Diese Features werden von Nachfolgemodellen leistungstechnisch ja sowieso bald überrollt. Das ganze befindet sich ja immer in Entwicklung. Jedenfalls möchte ich kein Raytracing unter 30 FPS. Dafür benötige ich so eine Karte doch gar nicht und trotzdem bieten sie es an (fast rein für Werbezwecke und Betatester), obwohl es eigentlich Schwachsinn (sry) ist. Ich sehe das dann doch lieber pragmatisch.

Wenn wir mal ganz ehrlich sind, haben die meisten PC Nutzer wenig Ahnung von der Hardware. Das erfahre ich immer wieder. Die Starten das Spiel und gut ist es. Die gehen nicht, wie ein PCGH-Leser erst einmal in das Optionsmenü. ;-)

Ist aber keine Anspielung auf Dein Kommentar. Das Thema hast Du ja nicht direkt angesprochen. Das meine ich nur allgemein.
 
Zuletzt bearbeitet:
Mein Fehler, das war aus dem letztem Preis/Leistungs Vergleich von PCGH.
Auch richtig hoher Idle verbrauch, aber der Verbrauch ist an sich noch ok, aber bei weitem nicht gut.
Allerdings sind die Low FPS und Frametimes wirklich klasse mit der 750, auf der 770 ist es auch noch
Praktisch egal ob 1440p oder 1080p und kann man noch die meisten aktuellen Spiele in
4k auf der Karte spielen, mit 30 FPS, allerdings mit XeSS und die Tech ist wirklich gut.
 
Zuletzt bearbeitet:
Ich sah zu dieser (zum Glück weit zurückliegender Zeit) eigentlich keine Grafikkarte mehr zum Kauf. Weder vom Preis noch zur Verfügbarkeit. Da war es egal ob rot oder grün. Die waren alle Sch***e. :D
Das was Du da ansprichst gilt wohl eher für den Firmenbereich und der professionellen Nutzung, oder?
Nein, was ich ansprach waren die Verteilungen bei Stückzahlen zwischen AMD und Nvidia. Die waren davon beeinflusst, dass AMD weniger produzieren lassen konnte.
 
Kepler war wirklich der KO für AMD (und Maxwell das Nachtreten). Ich hatte auch mal gelesen, dass irgendein Patent das ermöglicht haben soll, worauf AMD einfach keinen Zugriff hat, aber weiß nicht ob das damit gemeint war
Kepler fand ich gar nicht so dermaßen gut bis auf die Titan und GTX 780 (nur 3 GB, später auch selten mit 6 GB). Die reine Hardware der R9 290 war interessanter.
Kepler hatte Auslastungsprobleme und konnte die Shader weniger gut nutzen als gedacht, die Präsenz des ehemaligen Zugpferds "PhysX" schwand, zudem war Asynchronous Compute ein Fremdwort. Die GTX 770 war nur ein Aufguss der 680.
Maxwell war umso besser, die Speicheranbindung der GTX 970 ausgenommen.
Meintest du Tile Based Rasterization?
 
Zuletzt bearbeitet:
Zurück