News Marktanteile bei Grafikkarten: Radeon und Arc in Not

Nur man bekommt bei AMD kein besseres plv.
Doch schon. Schau Dir einfach die PCGH-Listen an.

Einzig wenn man die Rahmenbedingungen setzt, das man RT exkludiert und auch Bildqualität ignoriert, VR ignoriert und Verbrauch herabstuft.
Dann kann man sich einreden, das man bei AMD mehr fürs Geld bekommt.
Ich rede mir das nicht ein. Ich vergleiche PCGH, heise/c't und gewisse Reviewer und treffe eine Entscheidung für mich.

Dabei ist mir in der Tat Raytracing immer noch nicht wichtig, sonder Rasterizing-Leistung an erster Stelle.
Und liegen die Preise für mein Empfinden bei AMD weniger absurd.
Diesen ganz alleinigen und lobpreisend übertrieben Fokus auf Raytracing (oder auch DLSS) kann ich nicht nachvollziehen.

Und ich genieße unter Linux, auf das ich nun mal setze und wert lege, die Offenheit der Features (aus welchen Gründen auch immer diese "offen" gelebt werden) und dass ich MESA unproblematisch in vollem Umfang nutzen kann.
Ich will mich nicht mit Proprietären Treibern rumschlagen - weder von AMD noch von Nvidia.

Pauschal und neutral ist so eine Sichtweise aber nicht.
Habe ich nie behauptet, dass man das pauschalisieren kann - genausowenig kann man aber seine rosa Sicht auf Nvidia pauschalisieren. Ich glaube, "neutral" ist keine der Sichtweisen hier, aber pauschalisierte und Häme/Fatalismus verbreitet wird degegen gerne.
So schlecht und absolut, wie die Situation immer geredet wird ist halt weder AMD, noch ist Nvidia der absolut einzige und wahre Heilsbringer.

Da sagt selbst der Atheist: "lasst die Kirche im Dorf":D

@Cleriker hat wunderschön einen Punkt angesprochen: Wechsel über Generationen hinweg. Wechsel mal von einer Nvidia auf eine 2 Generationen spätere AMD, da staunst Du auch. Hört man die gleiche Verblüffung von Wechslern innerhalb der Generationen? Nein.

Ich selbst war mit meinen AMD Karten bisher stets so gut zufrieden, das ich mir wieder eine kaufen würde. Aber die letzte war auch schon etwas her mit der R9 390 und davor die 290x.
:daumen:Ja, so geht's mir auch. Ich werde mir in 2 bis 3 Jahren vorraussichtlich auch wieder eine Radeon kaufen - wenn meine Auswertungen der Reviews das für mich als brauchbar und sinnvolle Entscheidung ergeben.
Und werde dann in Summe vermutlich immer noch weit unter den Gesamtausgaben eine RTX 4090 bleiben, gleichzeitig aber über die Zeit die Grafik-Performance meinem Bedarf über die Zeit entsprechend gesteigert haben und wahrscheinlich die 4090-Leistung dann gut überbieten.
Für mich ist es einfach so, dass ich 1800 Euro für das derzeitige Non-plus-Ultra, oder 1000 für das zweitplatzierte, persönlich nicht rechtfertigen kann. Sorry, sehe ich den Sinn nicht drinnen.

Die 290X 8GB hatte ich auch. Sapphire Custom-Modell mit Triple-Lüfter, erträglich leise und kühl. Super Karte.
 
Zuletzt bearbeitet:
Das ist leider normal für ehemalige AMD Verfechter..
Erst wird alles relativiert und Nvidia als böse und Spielerfeindliches Lederjacke tragendes Monster hingestellt..
(ich liebe übrigens auch schöne Lederjacken)

FSR ist ja nicht so schlecht.. man sieht ja kaum Unterschiede .. und Open source ect..
Die Treiber sind ja alle soo problemlos bei AMD ect..
Noch nie einen Fehler bei mir oder im bekannten Kreis gehabt.. und überhaupt Nvidia ist Böse!

Dann bekommen die eine Nvidia Karte in die Finger.. und sie sehen die Unterschiede die sie jahrelang relativiert haben mit eigenen Augen..
Und es schlägt in Verachtung und Frustration um weil sie sehen wie sehr AMD zurück liegt.. wie sehr sie ausgebremst wurden wegen Falscher GPU wahl.. wie sehr sie sich selbst zum Affen gemacht haben um das alles zu rechtfertigen.

Schon oft genug hier und in anderen Foren erlebt..


Aber B2Topic
Gibt gute Gründe warum AMD soweit abkackt..
-Sie hinken überall 1-2 Generationen hinterher.. sowohl bei Hardware als auch bei Software
- sie sind im Laptop Markt quasi non existent unter anderem weil die Architektur zuviel Strom säuft/Hitze entwickelt für den mobilen Markt
- sie haben zwar Karten mit mehr Vram im Angebot.. aber nur bei den großen Modellen.. die kleineren sind teilweise genauso vram kastriert wie bei Nvidia ..

Und seien wir Mal ehrlich.. die haben nicht mehr Vram um den Käufer zu schmeicheln.. sondern weil die Karten ohne die entsprechende Speicheranbindung gnadenlos bei den Transferraten verhungern würden..
Mit 256bit und 16GB Vram würde eine 7900xtx kaum über eine 4070TI (nonS) kommen

Dass bei so einem Bericht wieder die Jünger beider der Lager hervor kommen und gegenseitiges Markenbashing betreiben, war sowas von klar.

Fakt ist aber: es nervt, weil es uncool ist, immer die gleichen Aussagen und Argumente aus der Mottenkiste zu lesen. Stell dir vor: ich hatte schon Nvidia und bin trotzdem zufrieden mit AMD und wars mit Nvidia. Das muss sich nach deinen Aussagen für dich jetzt echt komisch anfühlen :schief:

AMD hinkt mit Sicherheit nicht überall 1-2 Generationen hinterher. Nvidia hat bisher her bessere RT-Leistung und früher in KI investiert, lässt sich das aber auch fürstlich entlohnen. Bei CPU's ist AMD garantiert nicht schlechter, sei es Desktop oder Workstation.

Die kleineren Karten brauchten bisher nicht mehr VRAM. Es ist davon auszugehen, dass beide Hersteller in Zukunft auch bei kleineren Full HD GPU's mehr VRAM verbauen werden, da ja hinlänglich festgestellt wurde, dass 8 GB nicht mehr ausreichen.

Aber statt das Ganze sachlich zu sehen, liest man immer die gleichen Fanboy-Argumente *gähn*. Es langweilt und ist uncool und wirkt 2024 so 2018.
 
Zuletzt bearbeitet:
Für meinen privaten Gebrauch bin ich aber seit etlichen Jahren bei 4K und gehe sowohl bei DLSS als auch FSR nicht unter qualitiy.
Komisch, ich gehe regelmäßig wenn ich am TV zocken auf Performance, weil das häufig so gut aussieht wie FSR Quality gerade in 4K und +40% Leistung. Vielleicht solltest du mal neutral vergleichen.
Doch schon. Schau Dir einfach die PCGH-Listen an.
Paar Prozent Vorsprung in Raster, bisschen größerer Rückstand in RT, +Upscaler/Effizienz. Nope.


Definitiv Quarktasche.
Diesen ganz alleinigen und lobpreisend übertrieben Fokus auf Raytracing (oder auch DLSS) kann ich nicht nachvollziehen.
Sehr wahrscheinlich DLSS noch nie ausprobiert. Klar wer will schon kostenlose Leistung oben drauf haben, natürlich keiner. Bevor ich FSR verwende lass ich mich mit dem Klammerbeutel pudern.

Das ist auch keine rosa Sicht. DLSS ist klar besser. Ist so.
 
Zuletzt bearbeitet von einem Moderator:
[...]Fakt ist aber: es nervt, weil es uncool ist, immer die gleichen Aussagen und Argumente aus der Mottenkiste zu lesen. Stell dir vor: ich hatte schon Nvidia und bin trotzdem zufrieden mit AMD und wars mit Nvidia. Das muss sich nach deinen Aussagen für dich jetzt echt komisch anfühlen :schief:
[...]

Jupp, meine Geforce 3 war damals eine sehr geile Karte, es wurmte mich damals aber schon, dass gerademal etwa ein halbes Jahr später die Ti rauskamen... Allerdings muss fairerweise gesagt werden, dass damals der Hardwareoutput allgemein sehr kurzzyklisch war verglichen zu heute :D
Leider konnten die neuen programmierbaren Shader damals kaum genutzt werden in der Praxis und fanden primär im 3D-Mark etwas Arbeit...
Die vorangegangene Geforce DDR war technisch ebenfalls sehr spannend, weswegen ich sie auch kaufte, aber enttäuschte mich seinerzeit irgendwie performancetechnisch, das neue T&L zündete schlichtweg nicht wie erhofft.
Dann kam ATi mit der Radeon 9800Pro, die hatte zwar mit Truform bereits eine Tessellationfunktion, die gab's aber ausser in Serious Sam nirgends im freien Spielefeld zu sehen.
Seither sind für mich Kinderschuhtechniken kein Kaufgrund mehr. So halte, resp. hielt ich es heute halt auch bsw. mit RT oder mit den ersten Upscalingversionen von DLSS und FSR.
Bei der 9800Pro vermisste ich zwar eine Weile lang eine bestimmte Fensterfunktion aus dem NV-Treiber, war dann aber relativ schnell wieder vergessen. Seither hatte ich schlichtweg kein Bedürfnis mehr zurück zu wechseln, weil ich bei den Radeons alles hatte, was ich benötigte, während mich die zunehmend zweifelhafte Preis- und Firmenpolitik der Konkurrenz auch nicht sonderlich dazu einlud, wieder zurück zu wechseln.


Nur schreibst du in deiner "Parodie" blöderweise, dass man es stummschalten müsse, ergo sagt sie etwas über eine generelle Stummschaltung aus, und das ist so nun mal keine Funktion, die jeder nach belieben ein- und ausschalten kann :)

________
Als Beispiel, warum ich meinen sarkastischen Spruch raus liess:
Es gibt bei diversen Onlinemedien öfters Schalter wo die Leser:innen bsw. die überbordende Berichterstattung und die Hypeflut über die Fussball-EM/WM abschalten können, wenn sie es nervt, um sich auf dem jeweiligen Portal auf die wichtige Berichterstattung konzentrieren zu können ;)
 
Zuletzt bearbeitet:
AMD hinkt mit Sicherheit nicht überall 1-2 Generationen hinterher. Nvidia hat bisher her bessere RT-Leistung und früher in KI investiert, lässt sich das aber auch fürstlich entlohnen. Bei CPU's ist AMD garantiert nicht schlechter, sei es Desktop oder Workstation.
Ich finde schon das man ordentlich hinterher hinkt.. Featurewelt ist zwar vorhanden aber die Qualität fehlt.. die Karten sind nicht so Energieeffizienzt.. was im Desktop Markt noch relativ ist.. aber im Notebook Markt ezentiel wichtig ist..
Deswegen sehen wir auch kaum AMD Notebook GPUs

Ich rede hier nicht von CPUs.. da hat AMD nicht nur die Kurve bekommen sondern ist in meinen Augen im Moment der bessere CPU Anbieter und ich bin mit meinem 5950 und dem 5800x3d sehr zufrieden und würde auch in Zukunft hier wieder zu AMD greifen .

Ich war mit meiner letzten AMD GPU (6800xt)am Anfang auch zufrieden.. die FPS waren hoch .. doch die Miesen Treiber und der Umstand das sich trotz Default settings sowohl Spiele als auch der Treiber und Windows ständig gecrasht sind..ging mir über ein Jahr auf den Keks bis das ich sie ersetzt habe.. und das hab ich so mehrfach auch im bekannten/Zockerkreis erlebt.



Die kleineren Karten brauchten bisher nicht mehr VRAM. Es ist davon auszugehen, dass beide Hersteller in Zukunft auch bei kleineren Full HD GPU's mehr VRAM verbauen werden, da ja hinlänglich festgestellt wurde, dass 8 GB nicht mehr ausreichen.
Es geht ja gar nicht nur um die Kleinen Karten.. es geht um die ganze 7000er Gen die sich kaum bis gar nicht von den 6000ern absetzten kann..
Eine 7800xt ist kaum schneller als eine 6800xt.. je nach Spiel sogar Langsamer ..
Und das trotz beide mit 16gb ausreichend Vram haben.
Kastrier der 7900xtx ihr Speicherinterface von 384bit auf 256bit und sie liegt mit der 6900xt gleich auf.
Bzw eine 6900xt mit 384bit würde ähnlich zur aktuellen XTX performen.
Den Schritt hätte man aber schon 2020/2021 machen müssen

Und die nächste Generation wird kaum besser.. max 16GB vram bei 7900XT-XTX Leistung auf rtx5070 Level
Warum nicht einfach full in gehen mit dem Dualchip..32gb vram und die RTX5090 angreifen?


Es langweilt und ist uncool und wirkt 2024 so 2018.
Eher 2016..
Weil AMD so lange schon hinterher hinkt
 
Zuletzt bearbeitet:
Sehr wahrscheinlich DLSS noch nie ausprobiert. Klar wer will schon kostenlose Leistung oben drauf haben, natürlich keiner. Bevor ich FSR verwende lass ich mich mit dem Klammerbeutel pudern.

Das ist auch keine rosa Sicht. DLSS ist klar besser. Ist so.
Ich habe DLSS und FSR ausprobiert und finde, dass der Unterschied seit mindestens FSR 2.2 sichtbar, aber für mich kein Game-Changer ist.

Ich habe die RTX 3060 12 GB zurzeit sogar in den Wohnzimmer-PC verbannt.
:fresse:
 
Zuletzt bearbeitet:
Paar Prozent Vorsprung in Raster, bisschen größerer Rückstand in RT, +Upscaler/Effizienz. Nope.
Du siehst schon, dass die paar größeren Prozent Rückstand in RT unwichtiger sind, als die in Raster und damit nicht gleich wiegen, oder?
Effizienz? Marginal. Wir reden im Desktop-Betrieb von ein paar Watt. In Vollauslastung, die nur selten anliegt, ein paar mehr Watt, die somit nicht ins Gewicht fallen ...

Aber egal.
Wenn die paar Prozent mehr DIR zum Argument reichen, dann sind sie legitim, wenn sie anderen zum Argument reichen, dann ist es vernachlässigbar... OK.

Ich entscheide nach Preis und was ich für mich relevantes dafür kriege, das ich auch ausnutze.

Definitiv Quarktasche.
??? Keine Ahnung, was das bedeuten soll. Dass es sich die Waage hält? Diffamierend, andere Meinung verunglimpfend oder was?

Sehr wahrscheinlich DLSS noch nie ausprobiert.
Logischer Weise nicht. Da das nur auf Nvidia geht und ich diese nicht habe.
Ich verlasse mich da auf Einschätzungen und Videovergleiche von anderen, wie etwa Hardware Unboxed und Co.

Klar wer will schon kostenlose Leistung oben drauf haben, natürlich keiner. Bevor ich FSR verwende lass ich mich mit dem Klammerbeutel pudern.

Das ist auch keine rosa Sicht. DLSS ist klar besser. Ist so.
"Kostenlose Leistung oben drauf" :lol:Traumtänzer.
"Besser" ist immer relativ. Nutzt du dieses "besser", ist es für Dich und den Einsatz relevant und ist es den Mehrpreis wert?
Meine Antwort für mich lautet: nein.
Und Deine für Dich anscheinend: ja.
Aber hör doch auf, andere als arme Irre und unlegitim darzustellen, weil sie andere Prioritäten haben!
 
Zuletzt bearbeitet:
Das meiste sehe ich ähnlich, aber nicht den Quatsch mit dem ignorieren von Eigenschaften.

VR nutze ich beispielsweise für die Arbeit viel im professionellen Bereich, aber privat hatte ich es auf zwei Versuche ankommen lassen und mir fehlten die Spiele dazu. Das meiste sieht halt unterirdisch aus, wie Alyx. Ist für mich also kein Thema. Allerdings nicht weil ich es ignoriere, sondern für mich als unnütz einstige. Es ist mir nichts wert. Also sehe ich es ich nicht als Plus-/Minuspunkt.
Dann ist das für dich individuell eben so, aber wie du selbst schreibst. Seid nicht zu pauschal.

Wenn pauschal eine Aussage getätigt wird, sind alle Faktoren zu berücksichtigen.
Bei der Bildqualität das gleiche System. Betrachter man von außen zwei Produkte mit FG und upscaling über alle Auflösungen, ist für mich Nvidia in Führung. Das würde ich dann auch jedem anderen so empfehlen. Für meinen privaten Gebrauch bin ich aber seit etlichen Jahren bei 4K und gehe sowohl bei DLSS als auch FSR nicht unter qualitiy. Genau in diesem kleinen Rahmen sehe ich aber kaum Unterschiede. DLSS ist meist sauberer implementiert, dafür aber gern weicher/unschärfer. Klar kann man nachschärfen, aber das bedeutet für mich, dass der wo ich das nicht muss, es eben besser hinbekommen hat.
Sehe hier tatsächlich auch in 4k eindeutig DLSS im Vorteil, verstehe aber deinen Punkt.
Wenn aber pauschal eine Aussage getätigt wird, muss man auch das pauschal betrachten und dann ist und bleibt DLSS im Vorteil.
Also da sind die mich beide auf einem Level. Einer meiner Kumpels spielt allerdings auf 1080p. Da würde ich über eine AMD im Bereich upscaling nicht mal nachdenken. Nvidia Broadcast nutze ich überhaupt nicht, weil ich privat nicht streame. Dafür nutze ich AMD PrivacyView, aber auch nur als Hilfsmittel und wäre für mich keine Kaufentscheidung.

Worauf ich hinaus will ist, dass nur weil jemand etwas nicht als Vorteil aufführt, er es nicht gleich ignoriert.
Doch, bei einer pauschalen Aussage, AMD biete zum Beispiel mehr fürs Geld.
Nicht alles was ein Hersteller bietet ist für den Käufer auch ausschlaggebend.
Natürlich, da bin ich ja sofort bei dir.
Verbrauch auf dem Papier, kann immer ein Punkt sein. Verbrauch beim Anwendungsfall des einzelnen aber komplett egal. Ich bin die meiste Zeit des Jahres nicht in der Nähe meiner PCs und wenn ich's bin nehme ich mir wenig Zeit dafür.
Toll für dich, aber wenn ich zwei Produkte vergleiche, ist das effizientere natürlich im Vorteil / bzw. das bessere Produkt.
Das war mal anders. Früher gab's Zeiten, da hab ich 30h die Woche gespielt, also 120 im Monat. Heute schaffe ich diese Zeit im Jahr nicht mal. Unter Wasser ist auch alles, also Abwärme nicht gleich Lautstärke. Demnach für mich irrelevant. Bei fast allen in meinem Umfeld ist es gegenteilig. Dennoch ignoriere ich diese Punkte nicht, sondern werte sie für mich und Stelle fest, ist kein relevanter Punkt.
Du hast aber hier doch auch nicht eine pauschale Aussage getätigt, oder?
Der einzige Vorteil aktuell, wenn ich mich zwischen AMD und Nvidia entschieden muss, ist RT. Da greift jetzt aber auch wieder die geringe Spielzeit und plötzlich ist es gar nicht so entscheidend wie man anhand von Balken denkt.
Den Punkt würde ich ganz anders sehen, gerade weil ich wenig Zeit habe, möchte ich dann nicht auch noch auf RT verzichten zum Beispiel.
Wenn es also heißt, spielst du dieses 6h Spiel lieber mit 32 fps, statt mit 21? Bist du bereit für diese 6h lang 9 fps mehr auch 200€ mehr in der Anschaffung zu bezahlen? Wohlgemerkt, beides unangenehme Bildraten.
Und wenigstens eine ist unrealitisch.
Also ignorieren tun hier die wenigsten. Außer vielleicht andere Meinungen.
Nope, das stimmt so nicht. Die Leute können nur nicht unterscheiden zwischen einer pauschalen Aussage und einer individuellen.
Noch dazu kommt ja, dass viele gar nicht in jeder Generation wechseln. Wenn einer beispielsweise eine RX5700 hatte und die damit verbundenen Startschwierigkeiten der Arch, wechselt dann zwei Generationen später auf eine 4080ti, dann ist klar, dass er begeistert ist. Wie sieht aber der Vergleich innerhalb eines Gen aus. Wechselt jemand von einer 7900XTX auf eine 4080 super,vword es eher Ernüchterung sein, außer er hat plötzlich einen Anwendungsfall für alle angebotenen Features. Nur dann sollte er sich fragen, warum er vorher diese nicht hatte.

Bitte seid nicht so pauschal mit euren Aussagen und fragt das Gegenüber mal was von den Features tatsächlich eine Gewichtung für ihn hat, bevor es so von oben herab verlustiert wird.
Keine Angst, ich achte schon drauf, wann ich was pauschal sage und wann ich es individuell formuliere.
Doch schon. Schau Dir einfach die PCGH-Listen an.
Du meinst, ich soll einen Teil ignorieren.
Ich rede mir das nicht ein. Ich vergleiche PCGH heise und gewisse Reviewer und treffe eine Entscheidung für mich.
Die unterscheiden. Du selbst individuell bewertest das nur anders.
Dir ist dann zum Beispiel Raster wichtiger, was absolut in Ordnung und vertretbar ist. Aber das macht nicht AMDs Preise pauschal besser, sondern lediglich zum für dich besser passenden Angebot.
Dabei ist mir in der Tat Raytracing immer noch nicht wichtig, sonder Rasterizing-Leistung an erster Stelle.
Sag ich ja.
Und liegen die Preise für mein Empfinden bei AMD weniger absurd.
Nur weil du RT weniger wertest.
Würdest du eher RT schwerer wiegen, hätte AMD dann ja auch nicht pauschal das schlechtere PLV.
Diesen ganz alleinigen und lobpreisend übertrieben Fokus auf Raytracing (oder auch DLSS) kann ich nicht nachvollziehen.

Man kann das auch so sehen.
Wenn wir über potente Hardware reden, dann reden über fordernde Spiele.
Davon kommen einige mit RT einige ohne.

Wie oft kann eine 7900XTX ein Spiel spielbar darstellen, wie oft das Nvidia Modell.

Raster ist auf dem Niveau nicht mehr so relevant, ob AMD das etwas besser kann. Der Unterschied bei RT ist viel größer und damit auch öfter der Unterschied von spielbar zu nicht spielbar.
Und ich genieße unter Linux, auf das ich nun mal setze und wert lege, die Offenheit der Features (aus welchen Gründen auch immer diese "offen" gelebt werden) und dass ich MESA unproblematisch in vollem Umfang nutzen kann.
Ich will mich nicht mit Proprietären Treibern rumschlagen - weder von AMD noch von Nvidia.

Auch individuell.
Habe ich nie behauptet, dass man das pauschalisieren kann - genausowenig kann man aber seine rosa Sicht auf Nvidia pauschalisieren. Ich glaube, "neutral" ist keine der Sichtweisen hier, aber pauschalisierte und Häme/Fatalismus verbreitet wird degegen gerne.
Du hast doch eine absolute Aussage getätigt.
So schlecht und absolut, wie die Situation immer geredet wird ist halt weder AMD, noch ist Nvidia der absolut einzige und wahre Heilsbringer.

Da sagt selbst der Atheist: "lasst die Kirche im Dorf":D

@Cleriker hat wunderschön einen Punkt angesprochen: Wechsel über Generationen hinweg. Wechsel mal von einer Nvidia auf eine 2 Generationen spätere AMD, da staunst Du auch. Hört man die gleiche Verblüffung von Wechslern innerhalb der Generationen? Nein.


:daumen:Ja, so geht's mir auch. Ich werde mir in 2 bis 3 Jahren vorraussichtlich auch wieder eine Radeon kaufen - wenn meine Auswertungen der Reviews das für mich als brauchbar und sinnvolle Entscheidung ergeben.
Und werde dann in Summe vermutlich immer noch weit unter den Gesamtausgaben eine RTX 4090 bleiben, gleichzeitig aber über die Zeit die Grafik-Performance meinem Bedarf über die Zeit entsprechend gesteigert haben und wahrscheinlich die 4090-Leistung dann gut überbieten.
Für mich ist es einfach so, dass ich 1800 Euro für das derzeitige Non-plus-Ultra, oder 1000 für das zweitplatzierte, persönlich nicht rechtfertigen kann. Sorry, sehe ich den Sinn nicht drinnen.


Die 290X 8GB hatte ich auch. Sapphire Custom-Modell mit Triple-Lüfter, erträglich leise und kühl. Super Karte.
Das waren noch Zeiten.
 
Zuletzt bearbeitet:
Komisch, ich gehe regelmäßig wenn ich am TV zocken auf Performance, weil das häufig so gut aussieht wie FSR Quality gerade in 4K und +40% Leistung. Vielleicht solltest du mal neutral vergleichen.
Ohne dir was zu wollen, aber das liegt schlicht an dir, deinen Augen, oder deiner inneren Einstellung. Bei mir am TV hängt die 4080 und alles unter DLSS quality sieht man auf diesem TV (FSR hab ich da noch nicht ausprobiert). Deine 4070 wird nichts anderes zaubern.
Geil finde ich aber, dass ausgerechnet du mir was von Neutralität erzählst... was hast du noch gleich als Avatar gewählt? Was und wer repräsentiert deiner Auffassung nach dein ich am besten?
 
90% Marktanteil?

Ein Fall für die Kartellwächter. Bei einer derart markbeherrschenden Stellung werden die bestimmt über eine Zerschlagung bzw. Aufteilung nVidias diskutieren.

Was für den Gamer ja nicht schlechter sein muss, eher im Gegenteil.
 
Du siehst schon, dass de paar größeren Prozent Rückstand in RT unwichtiger sind, als die in Raster und damit nicht gleich wiegen, oder?
Holt DLSS locker heraus, sodass du einen Nvidia Raster-Vorteil hast. Nur weil du DLSS nicht kennst und offenbar auch die Vergleiche nicht ernst nimmst und dir deine Wahrheit zurecht biegst, ändert das auch nichts daran, dass selten DLSS Balanced und meistens Performance sogut aussieht wie FSR Quality, vor allem ausgehend von 4K oder UWQHD.
Effizienz? Marginal. Wir reden im Desktop-Betrieb von ein paar Watt. In Vollauslastung, die nur selten anliegt ein paar mehr Watt, die nicht ins Gewicht fallen ...
YouTube/144Hertz, RT Effizienz mit DLSS Vorteil (100% besser), vor allem im FPS Limit sehr effizient.
Wenn die paar Prozent mehr Dir zum Argument reichen, dann sind sie legitim, wenn sie anderen zum Argument reichen, dann ist es vernachlässigbar... OK.
Du pauschalisierst AMD habe pauschal das bessere P/L, was alles in allem genommen unhaltbar ist.
Ich entscheide nach Preis und was ich für mich relevantes dafür kriege, das ich auch ausnutze.
Du erklärst das andere für irrelevant. Eine typische AMD Fan-Floskel.
Keine Ahnung, was das bedeuten soll.
Ich halte es für Unsinn.
Ich verlasse mich da auf Einschätzungen und Videovergleiche von anderen, wie etwa Hardware Unboxed und Co.
Na da hast du es ja.
"Kostenlose Leistung oben drauf" :lol:Traumtänzer.
Genauso ist es wenn ich auf meiner 4070 DLSS Performance fahre und sogar noch das bessere Bild als FSR Quality habe und mit RT dann 70% und mit Raster 30% mehr Leistung.
Meine Antwort für mich lautet: nein.
Weil du es einfach nicht besser weißt.
Bitte seid nicht so pauschal mit euren Aussagen und fragt das Gegenüber mal was von den Features tatsächlich eine Gewichtung für ihn hat, bevor es so von oben herab verlustiert wird.
Weißt du warum ich so Leute wie dich nicht mag? Weil sie permanent das tun was sie anderen vorwerfen. Du sagst man soll nicht so pauschal sein mit seinen Aussagen, findest aber jede noch so abwegige Erklärung warum kein klarer Nvidia Vorteil einer sein darf.

DLSS, ach FSR für mich gleich gut, obwohl du es nie verglichen hast?!
Stromverbrauch/Effizienz ganz egal
RT egal, Spiel nicht so viel

Deine Gewichtung hängt stark ins AMD Lager. Ich hab kein Problem zu sagen AMD verbaut mehr Vram, aber das ist eben der einzige reale Vorteil der bisher nur bei den 8GB Karten wirklich greift. 12 sind bis UWQHD bis heute genug.

Aber was hat AMD sonst? Paar Prozent mehr Rasterleistung die von DLSS mehr als aufgefressen wird.
Ohne dir was zu wollen, aber das liegt schlicht an dir, deinen Augen, oder deiner inneren Einstellung.
Genau, jemand der mir sagt DLSS und FSR sind gleich gut erzählt mir was von Augen und Einstellung.

Jeder Test bestätigt dir das. Und du hast die Karten laut deiner Angabe selbst, dann müsstest du das sofort in 9/10 Spielen sehen, wobei du es nie verglichen hast. Was für ein Widerspruch.
Bei mir am TV hängt die 4080 und alles unter DLSS quality sieht man auf diesem TV (FSR hab ich da noch nicht ausprobiert).
FSR läuft auf Nvidia, mal so nebenbei, falls du das nicht weißt.
Wobei, du willst mir erzählen du hast eine 4080 und hast nie FSR mit DLSS verglichen, aber redest hier schlau daher? Krass. Vor paar Minuten wusstest du noch, dass sich FSR und DLSS in 4K nichts nehmen, was nicht stimmt.
Geil finde ich aber, dass ausgerechnet du mir was von Neutralität erzählst...
Ich weiß zumindest wovon ich rede da ich DLSS und FSR ausgiebig vergleiche im Gegensatz zu dir. Du hast wahrscheinlich gar keine aktuelle Grafikkarte und schreibst am Windows 95 PC. Ich verlange von dir wie schon ein anderer User Bild deiner Karte+ Nickname auf einem Zettel!
was hast du noch gleich als Avatar gewählt? Was und wer repräsentiert deiner Auffassung nach dein ich am besten?
Jensen, der dich wohl triggert.
 
Zuletzt bearbeitet von einem Moderator:
Ich kenne den Unterschied, habe selbst genug Cyberpunk 2077 auf DLSS balanced gespielt und es sah gut aus, auch mit verschiedenen DLSS-Versionen experimentiert.
Es ist aber auch so, dass ich zurzeit wenig Zeit habe. Wenn doch, hole ich RDR2 nach und da muss ich mit der 3060 12 GB DLSS nutzen um überhaupt an die RX 7600 nativ heranzukommen.
:-D
 
Zuletzt bearbeitet:
Du hast Recht! Nvidia sind in allem die besten! Ihre Produkte und Lösungen sind über jeden Zweifel erhaben und unantastbar.
Nichts kommt auch nur annährend an ihre himmlische Grafik-Pracht heran.
Jeder, der das nicht wahrhaben will oder kann, ist ein armer fehlgeleiteter Tropf, der von seinen Wahnvorstellungen erlöst werden muss ... mit aller Gewalt und ohne wenn und aber, das sind wir im Namen der Menschlichkeit diesen Opfern schuldig.

Danke, dass Du mich nicht aufgegeben hast. Ich glaube ... ich wurde bekehrt \o/
 
Zuletzt bearbeitet:
Du meinst, ich soll einen Teil ignorieren.

Die unterscheiden. Du selbst individuell bewertest das nur anders.
Dir ist dann zum Beispiel Raster wichtiger, was absolut in Ordnung und vertretbar ist. Aber das macht nicht AMDs Preise pauschal besser, sondern lediglich zum für dich besser passenden Angebot.

Sag ich ja.
Habe nie "ignorieren" gesagt.
Realtivieren und Gewichten wäre eher angebracht.
Jede Betrachtung und Entscheidung ist "individuell". Pauschalisieren, schwarz/weiß ist schlecht.
Und sich an Extremfällen entlangzuhangeln dürfte auch selten zutreffend sein am Ende.
(Wohlgemerkt: ich sage nicht, dass Extremwertbetrachtungen nicht legitim sind! Sie helfen den Stand der Technik einzugrenzen und abzuschätzen, wohin die Reise gehen könnte. Eine Entscheidung für täglich übliche Einsatzszenario mache ich davon schwerlich abhängig - hierfür ziehe ich andere Kriterien heran)

Nur weil du RT weniger wertest.
Würdest du eher RT schwerer wiegen, hätte AMD dann ja auch nicht pauschal das schlechtere PLV.
Nun ja ... 99,5% (vielleicht sogar noch mehr) der Spiele und besonders Klassiker, die ich spiele, unterstützen kein RT.
Von den paar, die es tun tun es nur an einer Hand abzählbar wenige anständig - wenn man den berichten und Diskussionen glauben schenken darf.
Ich vermute, dass RT erst wirklich kaufentscheidend wird, wenn es in größerem Umfang und gut Einsatz findet und das wird erst so richtig mit Unterstützung der nächsten Konsolen-Generation, plus ein paar Jahre Adaptionsfrist sein, bis das Mainstream ist.
Und auch dann wird die Entscheidung nicht zwischen "bestes vs schlechtestes" gefällt, sondern am Nutzen und Ensatzzweck.

Und mal erhlich: sooo schlecht finde ich RT-Leistung auf dem Niveau -oder leicht besser- der letzten Nvidia-Generation nun auch nicht.
Damals haben auch viele für RT und Nvidia geschwärmt und jetzt ist das nichts mehr wert? Was machen denn die ganzen 30er- und 20er-Karten-Besitzer?

Raster ist auf dem Niveau nicht mehr so relevant, ob AMD das etwas besser kann. Der Unterschied bei RT ist viel größer und damit auch öfter der Unterschied von spielbar zu nicht spielbar.
Sehe ich anders. Ich kaufe meine Grafikkarte nicht wegen eines oder bestenfalls zwei Spielen, die ich gerne in Non-plus-Ultra Stand "heute" anschauen möchte. Das ist mir das Geld nicht wert und die meiste Zeit nutze ich es nicht aus.

Auch individuell.
Personenbezogene Entscheidungen sind immer individuell. Und es sind so gut wie immer Kompromisse.

Was will ich ausgeben und kann ich für mich gerade noch vertreten und mit meinem Gewissen vereinbaren?
Was bekomme ich für dieses Geld?
Was davon nutze ich wirklich und die meiste Zeit?
Wieviel bin ich bereit, etxra zu Zahlen, um für die nächste Zeit gewappnet zu sein?
Wie festgelegt oder frei bin ich mit dieser Entscheidung und sind mir die Einschränkungen es wert?
etc.

Du hast doch eine absolute Aussage getätigt.
Wo, welche? Ich rede überwiegend über mich und meine Gedanken zur Entscheidungsfindung.
Und ich mahne dazu, dass man das nicht so pauschal sehen kann, dass Nvidia unangefochten das Beste ist und dass RT überhaupt so einen alles entscheidenden Stellenwert hat.
Wenn dieses nun auch als "pauschale" Aussage angesehen wird, dann weiss ich auch nicht mehr.
(so wie Intolleranz gegenüber Intolleranz ist doch auch intollerant. Man muss Intolleranz gegenüber tolleranter sein ..."?
:what:
)
 
Zuletzt bearbeitet:
Habe nie "ignorieren" gesagt.
Realtivieren und Gewichten wäre eher angebracht.
Jede Betrachtung und Entscheidung ist "individuell". Pauschalisieren, schwarz/weiß ist schlecht.
Und sich an Extremfällen entlangzuhangeln dürfte auch selten zutreffend sein am Ende.
(Wohlgemerkt: ich sage nicht, dass Extremwertbetrachtungen nicht legitim sind! Sie helfen den Stand der Technik einzugrenzen und abzuschätzen, wohin die Reise gehen könnte. Eine Entscheidung für täglich übliche Einsatzszenario mache ich davon schwerlich abhängig - hierfür ziehe ich andere Kriterien heran)


Nun ja ... 99,5% (vielleicht sogar noch mehr) der Spiele und besonders Klassiker, die ich spiele, unterstützen kein RT.
Von den paar, die es tun tun es nur an einer Hand abzählbar wenige anständig - wenn man den berichten und Diskussionen glauben schenken darf.
Ich vermute, dass RT erst wirklich kaufentscheidend wird, wenn es in größerem Umfang und gut Einsatz findet und das wird erst so richtig mit Unterstützung der nächsten Konsolen-Generation, plus ein paar Jahre Adaptionsfrist sein, bis das Mainstream ist.
Und auch dann wird die Entscheidung nicht zwischen "bestes vs schlechtestes" gefällt, sondern am Nutzen und Ensatzzweck.

Und mal erhlich: sooo schlecht finde ich RT-Leistung auf dem Niveau -oder leicht besser- der letzten Nvidia-Generation nun auch nicht.
Damals haben auch viele für RT und Nvidia geschwärmt und jetzt ist das nichts mehr wert? Was machen denn die ganzen 30er- und 20er-Karten-Besitzer?


Sehe ich anders. Ich kaufe meine Grafikkarte nicht wegen eines oder bestenfalls zwei Spielen, die ich gerne in Non-plus-Ultra Stand "heute" anschauen möchte. Das ist mir das Geld nicht wert und die meiste Zeit nutze ich es nicht aus.


Personenbezogene Entscheidungen sind immer individuell. Und es sind so gut wie immer Kompromisse.

Was will ich ausgeben und kann ich für mich gerade noch vertreten und mit meinem Gewissen vereinbaren?
Was bekomme ich für dieses Geld?
Was davon nutze ich wirklich und die meiste Zeit?
Wieviel bin ich bereit, etxra zu Zahlen, um für die nächste Zeit gewappnet zu sein?
Wie festgelegt oder frei bin ich mit dieser Entscheidung und sind mir die Einschränkungen es wert?
etc.


Wo, welche? Ich rede überwiegend über mich und meine Gedanken zur Entscheidungsfindung.
Und ich mahne dazu, dass man das nicht so pauschal sehen kann, dass Nvidia unangefochten das Beste ist und dass RT überhaupt so einen alles entscheidenden Stellenwert hat.
Wenn dieses nun auch als "pauschale" Aussage angesehen wird, dann weiss ich auch nicht mehr.
(so wie Intolleranz gegenüber Intolleranz ist doch auch intollerant. Man muss Intolleranz gegenüber tolleranter sein ..."?
:what:
)
Jeder der die Aussage tätigt, AMD hätte in dieser Generation ein besseres plv hat eine pauschale Aussage getroffen, die Schlucht so nicht richtig ist.

PS: zu den individuellen Ansätzen habe ich ja schon geschrieben das es so absolut richtig ist.

;)
 
Holt DLSS locker heraus, sodass du einen Nvidia Raster-Vorteil hast. Nur weil du DLSS nicht kennst und offenbar auch die Vergleiche nicht ernst nimmst und dir deine Wahrheit zurecht biegst, ändert das auch nichts daran, dass selten DLSS Balanced und meistens Performance sogut aussieht wie FSR Quality, vor allem ausgehend von 4K oder UWQHD.

YouTube/144Hertz, RT Effizienz mit DLSS Vorteil (100% besser), vor allem im FPS Limit sehr effizient.

Du pauschalisierst AMD habe pauschal das bessere P/L, was alles in allem genommen unhaltbar ist.

Du erklärst das andere für irrelevant. Eine typische AMD Fan-Floskel.

Ich halte es für Unsinn.

Na da hast du es ja.

Genauso ist es wenn ich auf meiner 4070 DLSS Performance fahre und sogar noch das bessere Bild als FSR Quality habe und mit RT dann 70% und mit Raster 30% mehr Leistung.

Weil du es einfach nicht besser weißt.

Weißt du warum ich so Leute wie dich nicht mag? Weil sie permanent das tun was sie anderen vorwerfen. Du sagst man soll nicht so pauschal sein mit seinen Aussagen, findest aber jede noch so abwegige Erklärung warum kein klarer Nvidia Vorteil einer sein darf.

DLSS, ach FSR für mich gleich gut, obwohl du es nie verglichen hast?!
Stromverbrauch/Effizienz ganz egal
RT egal, Spiel nicht so viel

Deine Gewichtung hängt stark ins AMD Lager. Ich hab kein Problem zu sagen AMD verbaut mehr Vram, aber das ist eben der einzige reale Vorteil der bisher nur bei den 8GB Karten wirklich greift. 12 sind bis UWQHD bis heute genug.

Aber was hat AMD sonst? Paar Prozent mehr Rasterleistung die von DLSS mehr als aufgefressen wird.

Genau, jemand der mir sagt DLSS und FSR sind gleich gut erzählt mir was von Augen und Einstellung.

Jeder Test bestätigt dir das. Und du hast die Karten laut deiner Angabe selbst, dann müsstest du das sofort in 9/10 Spielen sehen, wobei du es nie verglichen hast. Was für ein Widerspruch.

FSR läuft auf Nvidia, mal so nebenbei, falls du das nicht weißt.
Wobei, du willst mir erzählen du hast eine 4080 und hast nie FSR mit DLSS verglichen, aber redest hier schlau daher? Krass. Vor paar Minuten wusstest du noch, dass sich FSR und DLSS in 4K nichts nehmen, was nicht stimmt.

Ich weiß zumindest wovon ich rede da ich DLSS und FSR ausgiebig vergleiche im Gegensatz zu dir. Du hast wahrscheinlich gar keine aktuelle Grafikkarte und schreibst am Windows 95 PC. Ich verlange von dir wie schon ein anderer User Bild deiner Karte+ Nickname auf einem Zettel!

Jensen, der dich wohl triggert.
Siehst du, es liegt an dir. Zeig mal eine Pauschalaussage von mir. Ich Unterschiede idR zwischen allgemeinen und meiner Ansicht. Zwischen hohen und niedrigen Auflösungen und zwischen Preisen und Gewichtungen wie der Energieeffizienz, die für viele ausschlaggebend sind. Du allerdings ignorierst das und machst für dich daraus allgemeingültige Aussagen. Das passiert aber nur in deinem Kopf und nicht im Forum. Zotoer mal bitte meine angeblichen Pauschalaussagen hier im thread.


Ich mach mal genau drei Beispiele:
1) Du weißt seit Anfang letzten Jahres, dass ich beruflich nicht Zuhause bin, bis auf wenige Tage im Jahr. Forderst (was ja schon dreist genug ist) dennoch etwas, dass ich deshalb nicht einfach liefern kann. Eben weil du weißt dass mir das schwer fällt. Ich habe dir sogar angeboten mich damals aus Tel Aviv abzuholen, dann hättest du die Fotos selbst machen können, hast du aber nicht gemacht. Komisch.
Am schlimmsten in meinen Augen ist aber, dass du von der 4080 das Bild forderst, von der 7900xtx aber nicht. Warum forderst du von der keines? Weil es dir nicht darum geht was einer hat, sondern nur darum, dass du dir erhoffst, dass ich die grüne nicht habe, damit du meine Kritik daran als unbegründet abtuen kannst. Was würde passieren wenn du das Foto bekommst von einem transparent/schwarzen Wasserblock ohne Modellaufschrift? Du würdest behaupten dass das ja allesmögliche sein kann. Eben weil die meisten Karten unter Wasser nämlich ziemlich ähnlich aussehen. Es bringt einfach nichts mit dir und dafür tausend Euros Reisekosten und zwei Tage Reisezeit investieren? Das glaubst du doch selbst nicht. Das hast du dir mit deiner Art absolut nicht verdient.

2) DLSS und FSR bieten den native, quality, Balanced, Performance und ultra Performance Mode (5 Modi). Das alles ist zu verrechnen mit verschiedenen Ausgangsauflösungen von 2160p über 1440p bis 1080p (3, 4 wenn man uwqhd mit dazu nimmt). Ich sage dir, das ich bei 2160p FSR und DLSS quality gleich gut finde und bei allem darunter Nvidia im Vorteil sehe. Du machst daraus, dass ich FSR und DLSS gleich gut finde, ganz egal welche Auflösung, ganz egal welcher Mode. Du ignorierst einfach 90% der Umstände/Aussage, die dazu noch pro DLSS sind und wirfst mir dann vor, FSR zu bevorzugen?!

3) Ich verbaue seit 2006 absolut in jedem eigenen system eine custom WaKü und hab schon damals auf Verbräuche gepupst, wenn es um mein Bastelsystem geht. Warum auch, es läuft ja nur ein paar Stunden im jahr. Meine ersten Beiträge hier im Forum müssten sich auf ein 3500-4000€ Alienwarenotebook mit übertaktetem quadcore und 7950GTX sli-system bezogen haben. Das hat ohne Stromkabel vielleicht 30 Minuten gehalten. Mir egal. Ich hatte in jeder GPU Gen die es ermöglicht hat immer SLI, oder CF und das mit bis zu vier Karten. Dass ich durch die Verabschiedung der Unterstützung von SLI und CF überhaupt nur noch eine Karte im System habe ist ja wohl mehr als effizient genug im Vergleich zu früher. Du allerdings willst jetzt den Leuten weismachen, dass mir die Effizienz "plötzlich" egal sei weil es ein Argument gegen Nvidia sein soll. Geht's noch? Setz dich doch wenigstens mit dem User auseinander dem du etwas andichten möchtest. Dann wüsstest du, dass ich selbst mit "Thermi" damals Triple SLI verbaut habe.
Der Großteil meiner Systeme waren Intel/Nvidia und du willst mir das AMD Lager zuordnen? Auch jetzt sitzt die 4080 ja gepaart mit einem 12900K. Auch das ist die wieder egal in deiner Argumentation.

Genau deshalb hast du nicht die Stelle als sprechender Hut bei Harry Potter bekommen. :ugly:

Ich Versuche ja schon dich ernst zu nehmen und nicht einfach auf die ignorelist zu schreiben, aber deine Art macht es einem wirklich schwer. Man hat das Gefühl du willst einfach nur Leute verunglimpfen und Streit provozieren, aber an einer ehrlichen Diskussion hast du kein Interesse. Warum wirkt das so?

Allein schon, dass wir jetzt durch deine (und meine) Art wieder den thread geentert haben... Es ist einfach unangenehm mit dir.
An der Stelle bitte ich alle gevervten um Entschuldigung. Das einfach so stehen lassen, mochte ich aber auch nicht.
 
Ich Unterschiede idR zwischen allgemeinen und meiner Ansicht.
Um dich vor der Realität zu drücken, deswegen vergleichst du auch kein DLSS gegen FSR, denn dann würdest du merken, dass DLSS klar überlegen ist, egal in welcher Auflösung. Gerade in 4 K lässt sich mit DLSS am meisten rausholen.
Zwischen hohen und niedrigen Auflösungen....
Woher willst du das wissen, wenn du es nicht ausprobierst?

Zitier mal bitte meine angeblichen Pauschalaussagen hier im thread.
Tat ich schon. Für dich persönlich stellt pauschal kein Nvidia Feature einen Vorteil da, weil komischer Grund XY.
Ich habe dir sogar angeboten mich damals aus Tel Aviv abzuholen, dann hättest du die Fotos selbst machen können, hast du aber nicht gemacht. Komisch.
Bitte was? Ist das ein Scherz? Ich soll noch Jerusalem fliegen um dich von dort abzuholen?:D Das haben wir ganz bestimmt nicht miteinander geschrieben.
Am schlimmsten in meinen Augen ist aber, dass du von der 4080 das Bild forderst, von der 7900xtx aber nicht.
Wieso schlimm? Dann mach doch beide. Ist ja nicht nur so, dass ich dir nicht glaube, sondern 4-5 andere User genauso wenig. Zuletzt sagte jemand zu dir Märchenerzähler.
Warum forderst du von der keines? Weil es dir nicht darum geht was einer hat, sondern nur darum, dass du dir erhoffst, dass ich die grüne nicht habe, damit du meine Kritik daran als unbegründet abtuen kannst.
Ne, weil du schreibst du hast FSR nicht mit DLSS verglichen.

Ich sage dir, das ich bei 2160p FSR und DLSS quality gleich gut finde...
Und das weißt du woher?
 
Jeder der die Aussage tätigt, AMD hätte in dieser Generation ein besseres plv hat eine pauschale Aussage getroffen, die Schlucht so nicht richtig ist.

PS: zu den individuellen Ansätzen habe ich ja schon geschrieben das es so absolut richtig ist.

;)
Achso! Ja nu ... "jeder der sagt, dass AMD für ihn mehr Sinn macht für den Preis und den Features und damit eine bessere Preisleistung bietet, hat unrecht und pauschalisiert".
Also hat AMD überhaupt diese Generation irgendwo eine besser P/L? Also am besten AMD und Preis garnicht gemeinsam erwähnen ... und schon garnicht das Wort "Leistung".

Ja, oh, ... so gesehen ... sorry! Ich "pauschalisiere".

Ich bin mir immer noch nicht schlüssig, was an meiner Aussage "so pauschal war" und einfach nicht stimmt
(kann mich weder entsinnen von "diese Generation", noch AMD insgesamt allgemein die beste P/L in allen Bereichen zugeschrieben zu haben - glaub, ich habe nicht mal "AMD" oder "Nvidia" gesagt - , oder auch nur "pauschal" an sich gesagt):
Tja, ich kaufe z.B. nicht "das Beste", ich suche die Beste Preis/Leistung und bin bereit, Kompromisse einzugehen ;)
Und dabei stelle ich nicht RT und Upsampling über alles.
Außerdem wiegen für mich gewisse OpenSource-Aspekte schwerer, als evtl. für andere.
Das ist es eigentlich schon.
Dahingegen Deine Reaktion:
Nur man bekommt bei AMD kein besseres plv.
Also überhaupt nicht. So ganz allgemein. Also AMD an sich doof.
Wenn ich das nun richtig verstehe, ist DIESE von Dir getätigte Aussage nicht "pauschal", richtig?
... man bekommt bei AMD ... kein besseres PLV ... = nicht pauschal. OK, notiert.
Und
Jeder der die Aussage tätigt, AMD hätte in dieser Generation ein besseres plv hat eine pauschale Aussage getroffen
... AMD hätte in dieser Generation ... (auch nur irgendwo in irgendeiner Preis- oder Leistungsklasse) besseres PLV ... = pauschal.
Also "pauschal" ist, was andere sagen oder man behauptet andere gesagt haben, aber nicht man selbst :what::huh::haeh:

Also braucht PCGH auch keine Listen mehr machen. Keine P/L-score, keine Performance-Bewertung ...
Man muss garnicht mehr schauen, welcher Preispunkt für einen und seine Anwendungen am meisten bringt und am besten geeignet ist. Uff, das wird so viel einfacher \o/

Raff, kannst einpacken! Die Leute interessiert nicht, wer, wo in welchem Preispunkt wie gut abschneidet.
Geht nur drum: wer hat überhaupt das Beste, den Längsten und auch nur RT.
 
Zuletzt bearbeitet:
Achso! Ja nu ... "jeder der sagt, dass AMD für ihn mehr Sinn macht für den Preis und den Features und damit eine bessere Preisleistung bietet, hat unrecht und pauschalisiert".
Liest du überhaupt?
Jeder der sagt, für ihn hat aufgrund von xy das Produkt das bessere plv, hat natürlich Recht.

Jeder der pauschal sagt, das Hersteller a, oder b das bessere plv bietet labert Schmarrn.
Also hat AMD überhaupt diese Generation irgendwo eine besser P/L? Also am besten AMD und Preis garnicht gemeinsam erwähnen ... und schon garnicht das Wort "Leistung".
Du hast deine eigenen dunklen Phantasien gelesen, aber nicht was ich schrieb.
Ja, oh, ... so gesehen ... sorry! Ich "pauschalisiere".

Ich bin mir immer noch nicht schlüssig, was an meiner Aussage "so pauschal war" und einfach nicht stimmt
(kann mich weder entsinnen von "diese Generation", noch AMD insgesamt allgemein die beste P/L in allen Bereichen zugeschrieben zu haben - glaub, ich habe nicht mal "AMD" oder "Nvidia" gesagt - , oder auch nur "pauschal" an sich gesagt):

Dahingegen Deine Reaktion:

Also überhaupt nicht. So ganz allgemein. Also AMD an sich doof.
AMD an sich doof?
Wo habe ich derartiges geschrieben. Komm mal klar
Wenn ich das nun richtig verstehe, ist DIESE von Dir getätigte Aussage nicht "pauschal", richtig?
... man bekommt bei AMD ... kein besseres PLV ... = nicht pauschal. OK, notiert.
AMD und Nvidia bieten pauschal sehr genau das selbe plv. Mit unterschiedlichen Gesamtpaketen.

Das kann individuell, zu Gunsten von AMD , oder Nvidia ausgehen. Je nach persönlichen Anforderungen.

Und

... AMD hätte in dieser Generation ... (auch nur irgendwo in irgendeiner Preis- oder Leistungsklasse) besseres PLV ... = pauschal.
Also "pauschal" ist, was andere sagen oder man behauptet andere gesagt haben, aber nicht man selbst :what::huh::haeh:
Das so unterbelichtet. Ich nehme ganz stark an, das es irgendwo ein großes Missverständnis gab.
Also braucht PCGH auch keine Listen mehr machen. Keine P/L-score, keine Performance-Bewertung ...
Doch, macht man ja und was kommt da raus?
Für Raster AMD, für RT Nvidia nicht mit bewertet wird die Bildqualität, VR, Verbrauch.
In Summe eher ein Patt und ganz sicher nicht, das pauschal AMD ein besseres plv bietet.
Man muss garnicht mehr schauen, welcher Preispunkt für einen und seine Anwendungen am meisten bringt und am besten geeignet ist. Uff, das wird so viel einfacher \o/
Lass den Drogenspiegel mal checken.
Raff, kannst einpacken! Die Leute interessiert nicht, wer, wo in welchem Preispunkt wie gut abschneidet.
Geht nur drum: wer hat überhaupt das Beste, den Längsten und auch nur RT.
Wer hat das geschrieben?

Nochmal in kurz und einfach,

Keiner hat etwas in der Richtung geschrieben, was du gelesen, verstanden zu haben scheinst.


Triffst du ohne Rahmenbedingungen die Aussage, AMD bietet in dieser Generation das bessere plv, ist das schlicht falsch .

Sagst du, das AMD in dieser Generation für Raster das besser plv bietet dann ist das absolut richtig. ( Upscaling, VR, Verbrauch, sonstiges nicht mit bewertet, sondern lediglich FPS/€)

Das ist ein entscheidender Unterschied und immer wieder darf man im Forum das Märchen lesen, das AMD aktuell nennenswert mehr pro Euro bietet.

Dabei geht es auch nicht darum, wer RT wie toll findet zum Beispiel, auch nicht AMD alles doof, der Part war auch schon sehr schwachlichtig;)


PS: ich denke das es wie gesagt an Anfang ein Missverständnis gab.
 
Liest du überhaupt?
Ja, ziemlich genau. ;)

Alles gut. Ich wollte Dich ein bisschen hinter dem Ofen vorlocken, weil Du mir jetzt mehrfach dieses "pauschal" vor's Gesicht gehalten hast und auf meine Nachfrage nicht eingingst. :kuss:

Bin ein bisschen auf Deinen Pauschal-Definitionen rumgeritten :D
Die waren so sehr ... "pauschal" :D

Jeder der sagt, für ihn hat aufgrund von xy das Produkt das bessere plv, hat natürlich Recht.
Jeder der pauschal sagt, das Hersteller a, oder b das bessere plv bietet labert Schmarrn.

Triffst du ohne Rahmenbedingungen die Aussage, AMD bietet in dieser Generation das bessere plv, ist das schlicht falsch .
Habe ich ja nirgends auch nur annährend.
Genausowenig für Nvidia. Eine solche Aussage wäre in jeder Richtung für jeden Hersteller falsch.
 
Zurück