RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Willkommen bei den Glücklichen 3.5%.
Steam Hardware & Software Survey

Nicht jeder ist ne Ultra Hure und den meisten reicht 1080p.

.

Wie geil ist das denn:lol:

Jetzt ist bei Rastergrafik also 1080P völlig normal für die Mehrheit ,und beim Raytracing argumentiert ihr dann plötzlich in die "Ultra Huren" Richtung, weil ihr da den erhöhten Leistungsaufwand für die bessere Grafik besser schlecht reden könnt, weil die erste RTX Karten das noch nicht packen in 4k and beyond

Manege frei

Ich mach mir die Welt widde widde wie sie mir gefällt

Das Zitat von dir werde ich anpinnen ,und es dir bei gegebener Zeit unter die Nase reiben mein Freund, wenn du oder deine roten Kumpels beim Raytracing wieder mit Ultra HD um die Ecke geschlurft kommt
 
Zuletzt bearbeitet:
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

scully ich weiß nicht woher jetzt der Spott kommt.
FHD ist derzeit nunmal die häufigste Auflösung, schlicht weil 1440p aufwärts eine Mehrinvestition in Monitor & Graka nach sich zieht. Und der Steam Survey, auch wenn ihn einige ablehnen, zeigt eben wo sehr sehr viele Gamer Leistungs- und damit auch Preistechnisch unterwegs sind.

Und der Zusammenhang den du knüpfst, den kann ich nicht verstehen. Wer 1300€ für eine Graka ausgibt und dann das "tollste" Feature am Ende nur in FHD "genießen" kann, der ist zurecht sauer, vor allem wenn er davor mehrere hundert Euro in 1440p / 4k Monitor(e) gesteckt hat.
Oder anders gesagt: Gamer mit einem FHD Monitor ist RTX uU zu teuer weil man keine 500€ für eine Graka ausgeben möchte. Gamern mit einem teuren Monitor ist RTX ein Graus weil man 500€ aufwärts in Monitore gesteckt hat die man jetzt auf niedrigerer Auflösung laufen lassen muss um das Feature zu nutzen.
Und all jene die einfach nur brachiale Leistung wollen ist RTX zu teuer weil der Aufpreis für die Ti den Leistungssprung (ohne andere Features wie mehr VRAM o.ä.) ebenfalls nicht rechtfertigt. Die 2080 wird die 1080ti in Kürze ablösen, schlicht weil es keine 1080ti mehr zu kaufen gibt und nicht weil es die bessere Graka ist.

Und dann ist es vollkommen egal ob Schaffe wieder seinen pseudoelitären Quatsch von wegen "man könne sich das nur nicht leisten" absondert (Schaffe hat doch bestimmt seine eigene Argumentation mit dem Kauf mindestens einer 2080ti untermauert und kann das mit SIcherheit jederzeit mit dem im Handelsforum üblichen Bild hier beweisen...).
Man kauft etwas und die Kaufentscheidung spiegelt immer den individuellen Anspruch wider und damit auch die eigene Bewertung ob der gekaufte Gegenstand zu diesem Preis akzeptabel ist. RTX ist letzteres für viele offensichtlich nicht.
 
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

scully ich weiß nicht woher jetzt der Spott kommt.
FHD ist derzeit nunmal die häufigste Auflösung,

Der Spott kommt daher weil die Heuchler das beim Raytracing gerne mal gegensätzlich argumentieren, als ob an 4k und mehr kein Weg mehr vorbei führen würde und 1080P soo Oldschool ist

Klar müssen sie dort ja auch ,wenn sie Nvidia mit RTX diskreditieren wollen, nur torpedieren sie sich mit sowas wie dem Spruch

Nicht jeder ist ne Ultra Hure und den meisten reicht 1080p
.
selber, obwohl der sowas von wahr ist:lol:

Und wer Rastergrafik in 4K oder mehr, einem full raytraced Renderer in 1080P vorzieht, hat den Schuss eh nicht gehört, oder sollte sich mal in Hollywood Filmen umsehen
 
Zuletzt bearbeitet:
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Hier herrscht mal wieder die reine Demagogie von Leuten wie Gurdi.

Das ist nichts Neues.

Traurig daran ist nur, dass solche Leute, die womöglich sogar bei AMD auf der Payroll stehen, in ihrem hiesigen Treiben scheinbar auch einen nicht gerade kleinen Teil der Redaktion hinter sich wissen, welche sich wahrscheinlich diebisch über den hier abgelieferten Dung freuen, weil es ihre eigenen niederen Instinkte befriedigt.


Keine dieser Behauptungen entsprechen der Realität:
- "Das Problem bei den Turing ist doch schlicht das hier ein Cocktail aus Hardwarefehlern, Softwarefehlern, Treiberbugs und Hardwareinkompatibilität herrscht.
Da blickt doch keiner mehr durch."
- Die Behauptungen über Gsync.
- etc.


Überschriften werden bewusst trügerisch gestaltet, wie bei der Vega56 = RTX 2070 Leistung Geschichte.

Jegliche Berichterstattung geht immer nur in die gleiche Richtung, nämlich NVDIA + Intel seien schlecht und AMD die heilbringende und erlösende Kraft.

Selbst die Antworten von Umfragen, wie die über den potentiellen Kauf von Zen2, werden schon so gestaltet, dass ein wacher Geist dabei die gewollte Einflussnahme auf das Kaufverhalten pro AMD nachvollziehen muss.

PCGH verkommt zu einem Loch voller Ideologen und Realitätsverdrehern, die aus ihrer Arroganz das Potential schöpfen möchten, durch überhöhte Moral einen vermeintlichen positiven Einfluss auf die Veränderung der Realität hin zu ihrem Willen zu bekommen, worüber sie ihre Existenz definieren.

Armselig.
 
Zuletzt bearbeitet:
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

scully ich weiß nicht woher jetzt der Spott kommt.
FHD ist derzeit nunmal die häufigste Auflösung, schlicht weil 1440p aufwärts eine Mehrinvestition in Monitor & Graka nach sich zieht. Und der Steam Survey, auch wenn ihn einige ablehnen, zeigt eben wo sehr sehr viele Gamer Leistungs- und damit auch Preistechnisch unterwegs sind.

Da hast Du natürlich Recht, im Moment ist es so, dass die Mehrzahl der User immer noch auf einem FHD [1080p] Monitor unterwegs ist. Allerdings muss man auch sagen, das eine RTX 2080 oder auch 2080Ti für einen Monitor mit FHD [1080p] meiner Meinung völlig Oversized ist, da diese dort ihr Potenzial gar nicht durch das CPU Limit in dieser Auflösung, ausschöpfen kann.

Mich persönlich kann die RTX Turing Serie, weder von der Leistung her, noch von dem RTX Feature her, noch vom Preis her überzeugen oder gar Interesse wecken. Daher war für mich recht schnell klar, dass ich nicht in einen neue RTX Turing Grafikkarte investiere um meine GTX 1070 zu ersetzen, sondern in einen neuen Monitor. So habe ich mir jetzt einen Asus Rog Swift PG 278Q gegönnt [den ich günstig gebraucht ersteigern konnte!] mit WQHD Auflösung [1440p] / 27" / 144 Hz und GSync, der meinen 24" Dell IPS 60 Hz Monitor abgelöst hat.

Den Mehrwert den ich jetzt mit meinem neuen Monitor habe, kann mir selbst eine RTX 2080Ti nicht bringen und das war ein Upgrade welches sich wirklich gelohnt hat. Ich hätte nicht gedacht, dass der Unterschied von einem 24" zu einem 27" Zoll, doch so erheblich ist, dass dann noch gepaart mit 1440p / 144 Hz und GSync ist einfach ein Traum! Und mit meiner GTX 1070 habe ich auch dank des neuen Monitors in der 1440p Auflösung keinerlei Probleme und durch die 144 Hz und GSync, muss ich mir wegen 60 FPS keine Sorgen mehr machen, wie das vorher ja immer mit dem Full HD [1080p] Monitor der Fall war [vor allem, wenn man DSR 1440p / 2160p genutzt hat!].

Das Monitor Upgrade war für mich deutlich kostengünstiger als eine RTX Grafikkarte und den Mehrwert kann man nur verstehen, wenn man ein solches Upgrade durchgeführt hat und selbst erlebt, wie sich das Gamefeeling mit dem neuen Monitor im Vergleich zu meinem alten Monitor anfühlt! :daumen:
 
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Da hast Du natürlich Recht, im Moment ist es so, dass die Mehrzahl der User immer noch auf einem FHD [1080p] Monitor unterwegs ist. Allerdings muss man auch sagen, das eine RTX 2080 oder auch 2080Ti für einen Monitor mit FHD [1080p] meiner Meinung völlig Oversized ist, da diese dort ihr Potenzial gar nicht durch das CPU Limit in dieser Auflösung, ausschöpfen kann.

Mich persönlich kann die RTX Turing Serie, weder von der Leistung her, noch von dem RTX Feature her, noch vom Preis her überzeugen oder gar Interesse wecken. Daher war für mich recht schnell klar, dass ich nicht in einen neue RTX Turing Grafikkarte investiere um meine GTX 1070 zu ersetzen, sondern in einen neuen Monitor. So habe ich mir jetzt einen Asus Rog Swift PG 278Q gegönnt [den ich günstig gebraucht ersteigern konnte!] mit WQHD Auflösung [1440p] / 27" / 144 Hz und GSync, der meinen 24" Dell IPS 60 Hz Monitor abgelöst hat.

Den Mehrwert den ich jetzt mit meinem neuen Monitor habe, kann mir selbst eine RTX 2080Ti nicht bringen und das war ein Upgrade welches sich wirklich gelohnt hat. Ich hätte nicht gedacht, dass der Unterschied von einem 24" zu einem 27" Zoll, doch so erheblich ist, dass dann noch gepaart mit 1440p / 144 Hz und GSync ist einfach ein Traum! Und mit meiner GTX 1070 habe ich auch dank des neuen Monitors in der 1440p Auflösung keinerlei Probleme und durch die 144 Hz und GSync, muss ich mir wegen 60 FPS keine Sorgen mehr machen, wie das vorher ja immer mit dem Full HD [1080p] Monitor der Fall war [vor allem, wenn man DSR 1440p / 2160p genutzt hat!].

Das Monitor Upgrade war für mich deutlich kostengünstiger als eine RTX Grafikkarte und den Mehrwert kann man nur verstehen, wenn man ein solches Upgrade durchgeführt hat und selbst erlebt, wie sich das Gamefeeling mit dem neuen Monitor im Vergleich zu meinem alten Monitor anfühlt! :daumen:

Ich sehe das ähnlich wie du. Ein gescheiter Monitor macht aktuell nach der Entwicklung in dem Bereich deutlich mehr Sinn als sich mit ein paar mehr Fps zu bewegen.
Die Darstellungsqualität ist doch deutlich gestiegen die letzten 2-3Jahre muss ich sagen und Sync sollte man eigentlich heute haben, das stellt schon einen deutlichen Mehrwert dar.

Mein neues Panel war auch ein sehr sinniges Upgrade und würde ich heute stets einer neuen GraKa vorziehen. Immerhin kauft man ne dicke Karte ja um bessere Optik zu erzielen, wenn dann der Monitor ne Krücke ist bringen einen 200Fps nüscht.
 
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Willst du uns eigentlich verarschen? G-Sync alleine kostet keine Leistung! Das hat es damals zu Kepler Zeiten nicht und bis heute hat sich daran nichts geändert. Hör verdammt noch mal auf Fakenews zu verbreiten!

Es steht immer noch in dem Link den du zitierst. Kannst dich ja bei Computerbase schriftlich beschweren wenn es dich so stört.
Gsync kostet mit 60Hz keine Leistung. Mit SLI, 120/144Hz und insbesondere mit HDR aber schon.
Übrigens verliert Pascal auch in SDR Geschwindigkeit, wenn 120 Hz anstatt 60 Hz ausgegeben werden. Aber deutlich weniger als mit HDR.
Da kannst du noch so toben.
 
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Hier ein Stream vom Tech Jesus mit defekten 2080 TIs:
YouTube

und was willst du uns damit sagen?

Der bekommt also aus der gesamten USA 6 "defekte" Karten geschickt, wovon eine nicht mal defekt war , und weiter?

Und wieviele haben ihre Karte in USA noch? Oder was willst du damit mitteilen?

Da glaub ich doch lieber Retailern u ihren Aussagen über RMA Quoten, als deinem nichtssagenden Video mit ein paar gesammelten Karten

Ihr kratzt euch auch den letzten Dreck unter den Fingernägeln zusammen , um nur irgendwie die Story am Laufen zu halten;)

Wenn Gamersnexus nach Vega Release dazu aufgerufen hätte, man möge ihm defekte Karten zusenden , dann hätte er keinesfalls solch einen Stapel zusammenbekommen NEIN
 
Zuletzt bearbeitet:
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

So viele Karten gab es nicht mal in den USA nach Relase von Vega.:ugly:
 
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Der Spott kommt daher weil die Heuchler das beim Raytracing gerne mal gegensätzlich argumentieren, als ob an 4k und mehr kein Weg mehr vorbei führen würde und 1080P soo Oldschool ist
Klar müssen sie dort ja auch ,wenn sie Nvidia mit RTX diskreditieren wollen, nur torpedieren sie sich mit sowas wie dem Spruch.

Du hast es einfach nicht verstanden.
Vielen Usern stinkt es soviel Geld für eine Graka auszugeben und dann das Hauptfeature mit dem der Preis gerechtfertigt werden soll nicht im vollen Umfang vom bereits gekauften Monitor nutzen zu können.

An 4k führt für User dann kein Weg mehr vorbei wenn man zig hundert € in 4k Monitor(e) investiert hat. Für solche User ist ein Raytracing in FHD halt wirklich witzlos. Und 1300€ für ne Graka ausgeben ist halt auch ne Ansage, vielen ist jetzt die 4k Mehrleistung im Vergleich zur VorgängerGen zu gering, bzw. der Preis für einen Wechsel zu hoch.
Raytracing mag irgendwann die bessere Alternative darstellen. Derzeit? Definitiv nicht.
 
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

und was willst du uns damit sagen?

Der bekommt also aus der gesamten USA 6 "defekte" Karten geschickt, wovon eine nicht mal defekt war , und weiter?

Und wieviele haben ihre Karte in USA noch? Oder was willst du damit mitteilen?

Da glaub ich doch lieber Retailern u ihren Aussagen über RMA Quoten, als deinem nichtssagenden Video mit ein paar gesammelten Karten

Ihr kratzt euch auch den letzten Dreck unter den Fingernägeln zusammen , um nur irgendwie die Story am Laufen zu halten;)

Wenn Gamersnexus nach Vega Release dazu aufgerufen hätte, man möge ihm defekte Karten zusenden , dann hätte er keinesfalls solch einen Stapel zusammenbekommen NEIN

Die Retailer RMA Quote hilft nur gar nicht, weil die meisten 2080 TI Karten als FE verkauft wurden.
Die gibt es nur im Nvidia eigenen Shop - natürlich ohne einsehbare RMA Quote.

Edit: Mindfactory hatte zeitweise gar keine 2080 TI gelistet und die aktuellen kommen zusammen auf 45 verkaufte Exemplare.
Das sagt mir nur, dass der Großteil über die Vorbestellungen lief.
 
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Die Retailer RMA Quote hilft nur gar nicht, weil die meisten 2080 TI Karten als FE verkauft wurden.
Die gibt es nur im Nvidia eigenen Shop - natürlich ohne einsehbare RMA Quote.

Edit: Mindfactory hatte zeitweise gar keine 2080 TI gelistet und die aktuellen kommen zusammen auf 45 verkaufte Exemplare.
Das sagt mir nur, dass der Großteil über die Vorbestellungen lief.

Die hatten bestimmt viel mehr RTX Karten, nur wenn man manchen Kunden drei Karten schicken muss,
bis mal eine dabei ist, die länger als 3 Wochen läuft, bleiben nicht mehr soviele die man verkaufen kann :lol:
 
Zuletzt bearbeitet:
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Hm, ganz schön was los hier aktuell, vor allem, wenn es um NV geht.

BSOD's? Ggfs. durch Treiberprobleme? Dann mal rann an die Wurst, NVidia! Es gibt < V I E L > zu tun!! :devil: :ugly:
__

Kann mir nicht vorstellen, dass es ein gundlegendes Problem mit GSync sein soll; wäre selbiges dann nicht schon wesentlich früher aufgetaucht? Gerade HW-Probleme, welche Bluescreen's erzeugen sind doch eigentlich ein Totalausfall und davon müsste man wesentlich früher gehört haben. Jetzt mal rann hier NVidia! Ihr habt GSync ausgerollt, Ihr habt RT und DLSS ausgerollt, Ihr habt Turing ausgerollt; jetzt kümmert Euch halt endlich mal um die Shice, wenn sie denn schon so am dampfen ist. DAS ist das Mindeste, was Eure Kunden vermutlich erwarten!
 
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Es steht immer noch in dem Link den du zitierst. Kannst dich ja bei Computerbase schriftlich beschweren wenn es dich so stört.
Gsync kostet mit 60Hz keine Leistung. Mit SLI, 120/144Hz und insbesondere mit HDR aber schon.

Da kannst du noch so toben.
Wo steht bei dem Test von CB, dass G-Sync überhaupt an war? Da wurde getestet wie sich HDR auf die Performance auswirkt, G-Sync wurde nicht mit einer Silbe erwähnt. HDR ist bei Nvidia nicht an G-Sync gebunden, allein auf diese absurde Idee zu kommen zeigt doch wie verzweifelt du nach etwas suchst womit du Nvidia schlecht machen kannst :daumen2:. Genau DAS regt mich auf!

Frag lieber mal AMD wo die ganzen tollen Features geblieben sind, die für Vega versprochen wurden!
 
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Siehe Aussage unter gewissen Umständen

Unter gewissen Umständen ist auch ein 2700x auf dem Niveau eines 9900K, dann wenn die GPU limitiert.
Es ist bei AMD immer so, dass unter gwissen Umständen etwas so und so sein soll.
Nur wenn ich dann alle anderen Umstände ignoriere und als unwichtig hinstelle, dann muss man sich den Vorwurf gefallen lassen, ob man so eine Kaufberatung auch wirklich ernst meint.
Nicht jeder übertaket und hinter dem Übertakten steht auch ein gewisses Risiko.
und meine genaue Spezifikation der Empfehlung mit: Für Bastler. Sag ich ja, selektiertes Lesen.

Man muss seine Empfehlung nicht schönreden, das ist eine Nischenempfehlung für Prinzipienreiter, die Nvidia nicht mögen und generell die Farbe über die Wahl des Produktes entscheiden lassen, aber nicht die Specs.

Leute kennen das Risiko von Übertaktung. Vor allem die Bastler die ich erwähnt habe. Early Adopter Bugs variieren da schon etwas mehr. Siehe Ryzen.

Ich habe als Ryzen Early Adopter keine Probleme gehabt den RAM innerhalb der Spezifikation zu betreiben.
Mit DDR4 2400 DR/2666 SR gab es da keinerlei Probleme.

Und wie schon bereits gesagt, Verbrauch war nicht Kontext der Aussage. Du kannst es noch 5x wiederholen. Und die Ratsamkeit des Mods auch nicht. Der Kontext meiner Aussage war, dass Gurdis Aussage unter gegebenen Vorraussetzungen wahr war.

Der Verbrauch spielt für ein System, für Hitzeentwicklung und Lautstärke, sowie Folgekosten immer eine Rolle.
Du kannst es auch noch 5x wiederholen dass das nicht interessiert, am Ende ist das als Empfehlung einfach Bullshit, auch hinsichtlich dessen, weil die Grundaussage kein OC bei einer RTX 2070 mit einbezieht.

Wusstest du, dass Sapphire früher standardmäßig 200mv + auf dem Kern bei ihrem OC-Tool zugelassen haben? Das ist nah an dem was der Mod macht. Der Chip macht das schon ne Weile mit wenn du ihn kühlst.

Eine Weile?:schief: Okay. Also wärs okay wenn die GPU nach einem Jahr stirbt, weil man ja so ein mega doller Sparfuchs ist.:rollen:

Ob's dir jetzt gefällt oder nicht, unter gewissen Umständen: Ja. Oder ist Steve ein Lügner? ;)

Ironie, PCGH ermittelt ein Delta von 29%, 3D Center 27% und CB 25%. Da darfst du aber ordentlich takten um den Gap auszufüllen.
Natürlich ist eine maximal übertaktete Vega 56 nicht schneller als eine stock RTX 2070, aber auch hier wieder ist der Vergleich albern.
OC vs stock.:schief:

Joa wenn wir nach dem Extreme Forum gehen müsstest du garnichts empfehlen, die Leute kennen sich hier ja aus. Außerdem haben wir hier einige Übertakter/Bastler. Für die wäre auch Vega mit Mod was.

Du kannst halt dennoch nicht einfach irgendwo eine Obegrenze setzen und alles andere als "Goodie" bezeichnen, das hat so etwas von "nicht über den Tellerand" blicken.

Naja, Umstände beeinflussen Entscheidungen.

Wenn man alles andere ausblendet und in der Blase lebt, dann ja.

Die Quelle würd ich zu gerne sehen.

Frag Gurdi.:rollen:

Moment: Sarkasmus on* Genau deshalb ist der Mod auch für jeden und nicht nur für Bastler empfehlenswert *Sarkasmus of.

Solche Spielereien mit MOD gegenüber einer etwas teureren RTX 2070 ist eigentlich für genau niemanden empfehlenswert.
Das ist schlicht und ergreifend Bullshit. Alleine die Stromkosten brauchen den monetären Abstand zur RTX 2070 locker innerhalb von 2 Jahren auf.
Die Investition ist schlicht und ergreifend purer Quark.

Jo, genau denen hab ich dann ne 1080/ti oder ne Vega 64 empfohlen und empfehle ihnen jetzt zu warten bis sich alles etwas relativiert hat, nachdem die 1080ti fast weg ist.

Um dann später zu erkennen, dass die User mal lieber zur fortschrittlicheren Technologie gegriffen hätten.
So eine GTX 1080 wird ohne RT und Tensor Cores, ohne Primitive Shader usw. immer mehr an Leistung verlieren.
Wenn man ein wenig Weitblick hat, dann sieht man die RTX 2070 bereits auf dem Niveau einer GTX 1080 Ti (siehe Wolfenstein zum Beispiel).

Wiso Geld verbrennen wenn mir und anderen das so reicht?

Du verbrennst das Geld ja dennoch über die Betriebskosten, wenn die Karte 220 Watt mehr aus der Dose zieht und musst auch das Netzteil teurer wählen.

Marketing. Wow. Entwickler sagen viel wenn der Tag lang ist.

Da ist mehr dahinter als Marketing. Nvidia drückt solche Features in den Markt.
AMD lässt sie verhungern.

Stimmt, ich muss ja jedes Feature haben bevor es etabliert ist und gut funktioniert. Die Option das Nvidia RTX erst in 2. Iteration auf die Reihe bekommt besteht ja garnicht. Das sehen wir ja an der Fülle der RT Titel die uns das beweißt. Oder nur für dich. Warte doch einfach bis was draußen ist. Dann siehst du ob RT sich lohnt. Warum solltest du drm Wort eines Großkonzerns der Geld machen will trauen?

Nein, muss man nicht, aber rein von der Logik her: Wer kauft sich eine 2,5 Jahre alte Karte, wenn er eine aktuelle mit deutlich modernerem Featureset und besserem Treibersupport haben kann?
Und ja, es gibt eine Fülle von RT Titeln, die kann man aber eben nicht alle sofort released haben, weil so ein Vorhaben auch dauert. Es gibt von MS noch nicht mal das nötige Windows Update.
Ich traue keinem Großkonzern, aber das RT eine Revolution sein wird, ist absolut klar. Es wird in Zukunft ohne RT keine vernünftige Verbesserung der BQ mehr geben.

Ich kann mich garnicht erinnern hier etwas zur Lautstärke der Vega 56 Kühler gesagt zu haben. Aber naja was solls.

Weil das bei der Gurdschen Empfehlung ja auch keinerlei Rolle spielt.:ugly:
Gleichzeitig, sind die billigen Kühler auf einer RTX 2070 natürlich sehr laut!

ch hatte lange Zeit ne gemoddete 390x Devil mit +200mV am Kern und nem mächtigem OC. Ich hatte nie Probleme. Ist das jetzt repräsentativ? Abgesehen davon. Mich stört nicht was du empfiehlst. Dich stört was Gurdi oder auch ich empfehlen. Warum du was empfiehlst ist mir sogar ziemlich egal.

Wer hat behauptet, dass es repräsentativ ist, aber wenn du mal in die Foren schaust, wieviel Karten durch Übertaktung abrauchen, dann weißte bescheid.
Mich stört an solchen Empfehlungen dass nur die eigene Meinung/Bias zählt, Fakten neutral gegenüberstellen, zählt nichts.

Kommt drauf an was du willst. Wenn es jetzt was in dem Leistungsbereich sein soll. Why not. Ansonsten kann man Abwarten versuchen. Beschert einem Sicherheit und bessere Preise.

Die Vorteile einer RTX 2070 überwiegen aber deutlich, denen einer RX Vega, das ist nunmal so.
Und sollte AMD mal wieder eine vernünftige Karte bringen, dann wird sich das auch sicher ändern.
Ihr empfehlt nur AMD, weil ihr euch in eurer Robin Hood Blase dann wohler fühlt, tut aber damit niemandem einen Gefallen.

Und direkt nach Launch eben meistens mehr als danach. Würde mich als jemand aus deiner oben beschriebenen Zielgruppe schon nerven.

Und mich nerven User, die für ihren Lieblingsverein das letzte Hemd verargumentieren.
Schau her! Die RTX 2070 in einem cherry Pick mit einer RX vega 56 mit Power Mod geschlagen. Uiuiui.:rollen:

Hab ich, genau deswegen die unfreundliche Reaktion.

Nein, du liest eigentlich nicht wirklich was ich schreibe.

Doch. Genau um die geht es. Du hältst andere Hardware als er für empfehlenswert. Deine Meinung, seine Meinung.

Nö, um die geht es nicht, es geht um Argumente und da zieht eine alte Stromschlucker-Vega mit OC nunmal einfach den kürzeren.
Das einzige valide pro Argument für AMD ist Freesync und das wars dann leider auch schon.

Er fand das NDA grenzwertig, du nicht. Die Hardware-Seiten waren sich auch nicht einig. Wie gesagt. Da gehen eure Meinungen halt auseinander.

Weil das eben seine Meinung ist, die mit den Fakten nichts zu tun hatte, besser gesagt eine Verschwörungstheorie.
Es hat sich in der Praxis der NDAs rein gar nichts geändert, man darf genauso berichten wie zuvor, also ist dieser Blödsinn den er von sich gibt auch in letzter Konsequenz klar widerlegt.
Meinungen gibt es hier nicht, es gab nur eine Fake News von Heise, die falsche Übersetzungen vornahmen und Aussage aus dem Zusammehang rissen.

Vega war zum Release günstig und im Miningboom dann unfassbar teuer.

Vega war nie besonders günstig, sondern zu Anfangs gabs ein schlechtes Referenzdesign für 500 Euro, was den Custom Designs einer GTX 1080 durchgehend unterlegen war, bei viel mehr Stromverbrauch.
Und das macht seine Auffassung zu den Preisen bei Nvidia auch nicht besser, er wendet schlicht und ergreifend für beide ganz andere Moralvorstellungen an.
500 Euro RTX 2070 10 bis 15% über Vega 64 teuer! Vega 64 für 479 Euro, günstig!:rollen: Betriebskosten gar nicht mit eingerechnet.

Der Preis für die 2080ti und 2080 ist auch finde ich imnernoch zu hoch einfach weil die 2080ti 70% mehr kostet und 30% mehr leistet und die 2080 ca. so schnell wie ne 1080ti ist aber weniger Speicher hat. Ob die 2080ti jetzt sie neue Titan ist ist mir ehrlich gesagt egal. Ich fand die Titan auch immer viel zu teuer.

Ja, das ist deine Meinung. Wenn man sich die Fakten aber nüchtern anschaut, dann sind die Preise für das was geliefert wird sogar eher gesunken.
Wenn Nvidia heutzutage einen Chip mit 450 mm² für 499 Dollar anbietet und zum GTX 1080 Release für 314mm² 599 Dollar verlangt, dann braucht man hier nicht mit Vorwürfen kommen.
Das ist eine Firma und keine non Profit Organisation.

Die 2080ti hat einfach verloren. eine Karte über 1000€ im Konsumer-Bereich würde ich niemals empfehlen.

Du wirst dich aber daran gewöhnen müssen, dass die Preise langfristig in solche Regionen steigen werden, da gibt es keine andere Alternative.
Dazu reicht ein Blick auf immer höher werdende Risikobereitschaft, Entwicklungskosten und Fertigungskosten, sowie immer höheren Aufwand für verbesserte Fertigungen.

Gibt's nicht, gibt nur ne Instinct und das is ne Pro (bzw. Machine Learning) Karte. Völlig andere Baustelle.

Wenn AMD wieder bereit ist Highend zu liefern, dann werden die AMD Preise auch in diese Regionen ansteigen, abhängig von Chipgrößere, Fertigungskosten und Risiko.

Der Chip darf kosten was er will.

Wenn etwas sehr teuer und rar in der Herstellung ist, steigt auch gleichzeitig der Preis.

Sehen wir dann. Ist doch egal ob AMD die schnellste Karte/CPU der Welt hat solange die Midrangeprodukte in der Region in der die meißten kaufen passen.

Nur mit Midrange wird AMD niemanden vom Hocker reißen und weiterhin das Dasein das ewig-Zweiten fristen.


Mit dir ist eh jede Debatte obsolet. Die Belege dazu hatte ich schon gepostet, such es wenn es dich interessiert.

Ich kenne es so, dass derjeniege der Behauptungen aufstellt, bei Nachfrage auch die Quelle dazu liefert.

Ergo Gsync kostet Leistung.

G-sync kostet auf meiner GTX 1080 und GTX 1080 Ti auf einem 144 Hertz GSync Monitor keinerlei Leistung, wenn ich es aktiviere.

Und der Zusammenhang den du knüpfst, den kann ich nicht verstehen. Wer 1300€ für eine Graka ausgibt und dann das "tollste" Feature am Ende nur in FHD "genießen" kann, der ist zurecht sauer, vor allem wenn er davor mehrere hundert Euro in 1440p / 4k Monitor(e) gesteckt hat.

Das Problem ist aber auch hier, dass ihr schon wieder von Dingen redet, die bisher gar nicht feststehen. Es gibt zum einen Regler und zum anderen ist gar nicht klar, wie weit die Optimierung der RT Features voranschreitet.
Es gibt auch mehrere Spiele die RT als Beleuchtung nutzen und in 4K 90 FPS auf einer RTX 2080 Ti anpeilen.
rollen.gif

Es ist schon sehr erstaunlich, dass Leute die Dreistigkeit besitzen Features von vorneherein Schlechtzureden, ohne sie je gesehen zu haben, geschweige denn das finale Ergebnis zu kennen.

Und dann ist es vollkommen egal ob Schaffe wieder seinen pseudoelitären Quatsch von wegen "man könne sich das nur nicht leisten" absondert

Genau das ist doch aber der Grund für die Ablehnung, getroffene Hunde bellen. Es ist schlicht der Preis.
Ich motze doch auch nicht dauernd herum weil ich mir keinen Porsche für 100 000 Euro leisten kann.

Schaffe hat doch bestimmt seine eigene Argumentation mit dem Kauf mindestens einer 2080ti untermauert und kann das mit SIcherheit jederzeit mit dem im Handelsforum üblichen Bild hier beweisen

Sicher habe ich das untermauert, bis Nvidia mir die Vorbestellung gestrichen hat, die Spezialisten.
s000.gif

Neue Technik ist toll und spannend, nur weil ihr Dauernörgler alles schlechtreden müsst, lasse ich mir doch meinen Spaß nicht versauen.
Für Battlefield wird dann wohl eine RTX 2080 angeschafft.

RTX ist letzteres für viele offensichtlich nicht.

Richtig und das liegt daran, weil sich viele Menschen solch hohe Ausgaben nicht leisten können.
Aber das wird noch deutlich schlimmer werden. High End wird im Preis immer weiter ansteigen.
Also finde dich damit ab.
Es steht immer noch in dem Link den du zitierst. Kannst dich ja bei Computerbase schriftlich beschweren wenn es dich so stört.
Gsync kostet mit 60Hz keine Leistung. Mit SLI, 120/144Hz und insbesondere mit HDR aber schon.

HDR kostet Leistung, G-sync nicht.
 
Zuletzt bearbeitet:
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Unter gewissen Umständen ist auch ein 2700x auf dem Niveau eines 9900K, dann wenn die GPU limitiert.
Es ist bei AMD immer so, dass unter gwissen Umständen etwas so und so sein soll.
Nur wenn ich dann alle anderen Umstände ignoriere und als unwichtig hinstelle, dann muss man sich den Vorwurf gefallen lassen, ob man so eine Kaufberatung auch wirklich ernst meint.
Nicht jeder übertaket und hinter dem Übertakten steht auch ein gewisses Risiko.

Du würdest also aus Prinziep jemandem mit geringerem Budget der aber Spaß am Übertakten hat die 2070 empfehlen statt ne Karte die er sich hochbasteln kann? Moment, ich ruf bei AMD an. Der Wattman im Treiber kann raus. Du kannst bei MSI Anrufen das die ihren Afterburner einstellen. Und jedem der ein kleineres Budget hat sowieso weil wer weniger zahlt muss scheinbar nicht zocken? 1080p 60FPS 2070 720p 60FPS 2070. Interessant. Das klingt für mich ziemlich dumm.

Man muss seine Empfehlung nicht schönreden, das ist eine Nischenempfehlung für Prinzipienreiter, die Nvidia nicht mögen und generell die Farbe über die Wahl des Produktes entscheiden lassen, aber nicht die Specs.

Das ist witzig. Ich empfehl nämlich deutlich öfter Nvidia Karten aus der 10xx Generation als Vega. Vega empfehl ich erst wieder seit dem Preissturz weil eine Vega 56 halt einfach ne nette Karte ist. Ich weiß das du die aus Prinzip schon nicht empfiehlst. Aber du glaubst scheinbar auch alles unter RTX ist kein Gaming.

Ich habe als Ryzen Early Adopter keine Probleme gehabt den RAM innerhalb der Spezifikation zu betreiben.
Mit DDR4 2400 DR/2666 SR gab es da keinerlei Probleme.

Du hast immernoch nicht gelernt was repräsentativ ist und was nicht oder? Ich helf dir mal http://www.pcgameshardware.de/Ryzen-7-1800X-CPU-265804/News/Bekannte-Probleme-AM4-1222886/ Es gab ne Liste dafür.


Der Verbrauch spielt für ein System, für Hitzeentwicklung und Lautstärke, sowie Folgekosten immer eine Rolle.
Du kannst es auch noch 5x wiederholen dass das nicht interessiert, am Ende ist das als Empfehlung einfach Bullshit, auch hinsichtlich dessen, weil die Grundaussage kein OC bei einer RTX 2070 mit einbezieht.

Hitzeentwicklung ist ein Thema, aber eins mit dem du offensichtlich nicht vertraut bist. Ich hab ne Vega (ohne OC, Ohne UV) in nem schönen kleinen SilverStone Raven als 2. PC. Keine Hitzeprobleme, schön leise. Wer weiß was Case-Fans sind und wo die hin müssen hat wohl gewonnen.
Und Stromverbrauch ist auch ein Umstandsfaktor. Wenn eine Vega halt 200€ weniger kostet als ne 2070 dann dauert das ziemlich lange bis sich die Effizienz der 2070 rentiert. Bei einer 2070 zu einer 1070 noch viel länger.

Eine Weile?:schief: Okay. Also wärs okay wenn die GPU nach einem Jahr stirbt, weil man ja so ein mega doller Sparfuchs ist.:rollen:

Ich machs jetzt einfach mal wie du. Aber meine 390x war doch auch 2 Jahre bei mir im Dienst und ist bis heute mit gleichem OC bei einem Kumpel im Dienst. Anständiger Kühler, keine Probleme.


Ironie, PCGH ermittelt ein Delta von 29%, 3D Center 27% und CB 25%. Da darfst du aber ordentlich takten um den Gap auszufüllen.
Natürlich ist eine maximal übertaktete Vega 56 nicht schneller als eine stock RTX 2070, aber auch hier wieder ist der Vergleich albern.
OC vs stock.:schief:

Also ich glaub Steve nachdem ich weiß, das du damit scheinbar ein persönliches Problem hast. Den halt ich für technisch etwas versierter als du. Was Stock gegen OC angeht. Ja, das sind die schönen Umstände von denen ich immer so gerne sprech. (Du hast es endlich gemerkt? Wow) Ja auf ne 2070 können auch nochmal 10% drauf. Dann ist sie wieder schneller. Steht auch im Artikel. Deshalb hab ich ihn ja verlinkt. Das ist das schöne, dann kann es sich einfach jeder selbst anschauen und muss nicht seit 3 Seiten meckern.

Du kannst halt dennoch nicht einfach irgendwo eine Obegrenze setzen und alles andere als "Goodie" bezeichnen, das hat so etwas von "nicht über den Tellerand" blicken.

Klar kann ich das. Ich nehm die größte Karte die noch in relevanten Stückzahlen gekauft wird und alles in der Klasse darüber sind Goodies weil sie der normale User nicht braucht. Ich weiß du bist der Meinung mit allem unter ner 1080ti ist das kein richtiges Zocken. Aber ich Verrate dir ein Geheimnis. Alles bis 1070 Level stellt ca. 70% der User zufrieden. Das ist Quasi was die Mehrheit zum zocken braucht.


Wenn man alles andere ausblendet und in der Blase lebt, dann ja.

Was hat das mit ner Blase zu tun? Warum sollte ich nem Studenten der 1080p zocken will eine 2070 statt einer Vega 56/1070 empfehlen? Der hat keine Kohle und hat einfach keinen Mehrwert aus dem Teil. Und nur so für die Info. Kein Bastler, Vega 56 Stock.

Solche Spielereien mit MOD gegenüber einer etwas teureren RTX 2070 ist eigentlich für genau niemanden empfehlenswert.
Das ist schlicht und ergreifend Bullshit. Alleine die Stromkosten brauchen den monetären Abstand zur RTX 2070 locker innerhalb von 2 Jahren auf.
Die Investition ist schlicht und ergreifend purer Quark.

Klar ist das ne Empfehlung. Ich möchte Übertakten und mein Budget geht bis hier. Abgesehen davon, dass das Ding den Abstand vielleicht dann aufhohlt wenn man 10 Stunden am Tag 1440p Ultra die neuesten Spiele spielt. Die leute tun immer so als würde Vega plain 500w mehr ziehen 24/7. 1. die 2070 hat auch einen Verbrauch, 2. die Max Leistung wird auch nur unter Maximalbelastung abgerufen. 320 Watt sind bei Maximalbelastung ordentlich, aber nicht so ordentlich.

Um dann später zu erkennen, dass die User mal lieber zur fortschrittlicheren Technologie gegriffen hätten.
So eine GTX 1080 wird ohne RT und Tensor Cores, ohne Primitive Shader usw. immer mehr an Leistung verlieren.
Wenn man ein wenig Weitblick hat, dann sieht man die RTX 2070 bereits auf dem Niveau einer GTX 1080 Ti (siehe Wolfenstein zum Beispiel).

Oder du merkst, das RTX für die Tonne ist und die RTX war eine zu teure Fehlinverstition. Das kann dir in beide Richtungen passieren. Und Wolfenstein ist ein Spiel. Ich kann dir sagen was damals den Vega-Fans gesagt wurde. Nur weil Vega die Ti in einzelnen Game schlagen konnte heißt das nicht, dass es die Regel ist. Das sind Einzelfälle. Ich finde das stimmt so. Für beide Seiten.

Du verbrennst das Geld ja dennoch über die Betriebskosten, wenn die Karte 220 Watt mehr aus der Dose zieht und musst auch das Netzteil teurer wählen.

Nicht wirklich. Ich hab ne Vega 64 an nem 630w BeQuiet hängen das ich davor schon hatte. Natürlich bezieh ich das Nt in kosten mit ein. Derr Aufpreis von 500w auf 700 nicht so enorm und die meisten haben eh so um die 650w. Mal abgesehen davon das es einfach ne Budget-Frage ist ob du jetzt mal eben 100€ mehr lässt oder halt über Zeit mehr Strom verbrauchst.


Da ist mehr dahinter als Marketing. Nvidia drückt solche Features in den Markt.
AMD lässt sie verhungern.

Sehen wir dann wie das wird. Aber nein. Im Moment bis es was zu sehen gibt. Marketing. Wie gesagt. Bis es was zu Bewerten gibt ist RTX für mich für die Bewertung irellevant.

Nein, muss man nicht, aber rein von der Logik her: Wer kauft sich eine 2,5 Jahre alte Karte, wenn er eine aktuelle mit deutlich modernerem Featureset und besserem Treibersupport haben kann?
Und ja, es gibt eine Fülle von RT Titeln, die kann man aber eben nicht alle sofort released haben, weil so ein Vorhaben auch dauert. Es gibt von MS noch nicht mal das nötige Windows Update.
Ich traue keinem Großkonzern, aber das RT eine Revolution sein wird, ist absolut klar. Es wird in Zukunft ohne RT keine vernünftige Verbesserung der BQ mehr geben.

Nachdem Pascal sehr gute Treiber hat sehe ich da kein Problem. Abgesehen davon, dass nach der Logik Vega wieder interessant wird nachdem die Architektur gut mit DirectX 12 und Vulkan skaliert. War nur bis jetzt auch egal. Warum sollte sich das jetzt plötzlich ändern. Da sehe ich einfach keinen Grund der gegen eine 1080/Vega spricht. Die 980ti ist auch noch gut unterwegs. Warum sollte die 1080 plötzlich schlechter werden? Klar kann man die nicht alle auf einmal releasen. Aber bis ich einen seh, ist mir RT halt ziemlich egal. Ob RT übrigens super wird hängt davon ab ob sie die Leistung in den Griff bekommen. Und das sehen wir halt erst wenn mal was releast ist. Das hat Hoffgang recht gut auf den Punkt gebracht.

Wer hat behauptet, dass es repräsentativ ist, aber wenn du mal in die Foren schaust, wieviel Karten durch Übertaktung abrauchen, dann weißte bescheid.
Mich stört an solchen Empfehlungen dass nur die eigene Meinung/Bias zählt, Fakten neutral gegenüberstellen, zählt nichts.

Klar können die Abrauchen. Das hat nichts mit bias zu tun. Genau deshalb ging die Empfehlung von meiner Seite nur an Bastler. Die wissen worauf sie sich einlassen. Was glaubst du warum es Flashing-Tools gibt? Nach deiner Logik müsste es die und keine OC-Tools mehr geben. Es gibt halt für bestimmte Konstellationen ein bestimmtes Publikum. Aber Übertakten und Flaschen tötet automatisch jede GPU, deshalb macht das auch keiner auf der Welt mehr.

Die Vorteile einer RTX 2070 überwiegen aber deutlich, denen einer RX Vega, das ist nunmal so.
Und sollte AMD mal wieder eine vernünftige Karte bringen, dann wird sich das auch sicher ändern.
Ihr empfehlt nur AMD, weil ihr euch in eurer Robin Hood Blase dann wohler fühlt, tut aber damit niemandem einen Gefallen.

Momentan sind die Vorteile einer 2070 gegenüber einer Vega /1080, dass sie eine andere Preisklasse ist und etwas schneller in der Default-Konfiguration. Aber nach der Logik müsste jeder eine 2080ti oder Titan V kaufen weil die noch schneller sind und Preise völlig irellevant. Was sind schon 800€. Ich geb dir mal nen Tipp. 1300€ für ne 2080ti macht sie für 98% der Leute völlig uninteressant.
Wie gesagt. Es kommt auf die Umstände an. Jemandem mit geringerem Budget würde ich niemals eine Karte in der Preisklasse empfehlen sondern lieber eine 1070/Vega 56 beide in der Stock-Konfiguration. Reicht wunderbar für 1080p und etwas mehr und ist einfach deutlich billiger.

Und mich nerven User, die für ihren Lieblingsverein das letzte Hemd verargumentieren.
Schau her! Die RTX 2070 in einem cherry Pick mit einer RX vega 56 mit Power Mod geschlagen. Uiuiui.:rollen:

Selektives lesen mal wieder. Kontext ist nicht deine stärke. Und nein. Ich kann es langsam einfach nicht mehr netter sagen. Du schmeißt mit Fanboyanschuldigungen um dich. Du redest von Blasen aber lebst in einer Welt in der jeder einfach mit Geld um sich werfen kann und immer das teuerste einer Preisklasse kaufen muss und jeder der ers anders macht lebt in Blasen oder hat nen Robin Hood-Komplex.

Nein, du liest eigentlich nicht wirklich was ich schreibe.

Doch, mache ich. Und mit jedem mal halt eich dich für unsympatischer und unfähiger zu richtigen Konversationen.


Nö, um die geht es nicht, es geht um Argumente und da zieht eine alte Stromschlucker-Vega mit OC nunmal einfach den kürzeren.
Das einzige valide pro Argument für AMD ist Freesync und das wars dann leider auch schon.

Nö, eine Stromschlucker OC Vega ist halt einfach um einiges billiger. Wie schon gesagt, Kleines Budget spaß am OCn.

Weil das eben seine Meinung ist, die mit den Fakten nichts zu tun hatte, besser gesagt eine Verschwörungstheorie.
Es hat sich in der Praxis der NDAs rein gar nichts geändert, man darf genauso berichten wie zuvor, also ist dieser Blödsinn den er von sich gibt auch in letzter Konsequenz klar widerlegt.
Meinungen gibt es hier nicht, es gab nur eine Fake News von Heise, die falsche Übersetzungen vornahmen und Aussage aus dem Zusammehang rissen.

Du siehst da was falsch. das ist so wie du es interpretiert hast und er interpretiert es halt anders. Da treffen deine und seine Meinung halt aufeinander. Aber das deine Meinung nicht automatisch ein Fakt ist wirst du glaube ich nichtmehr lernen.

Vega war nie besonders günstig, sondern zu Anfangs gabs ein schlechtes Referenzdesign für 500 Euro, was den Custom Designs einer GTX 1080 durchgehend unterlegen war, bei viel mehr Stromverbrauch.
Und das macht seine Auffassung zu den Preisen bei Nvidia auch nicht besser, er wendet schlicht und ergreifend für beide ganz andere Moralvorstellungen an.
500 Euro RTX 2070 10 bis 15% über Vega 64 teuer! Vega 64 für 479 Euro, günstig!:rollen: Betriebskosten gar nicht mit eingerechnet.

Da sind wir wieder bei den Early Adopter Problemen. Aber es wird dir auch Aufgefallen sein, dass meistens die Vega 56 eine Empfehlung bekommen hat die einfach 399€ kostet und das ohne Mods oder OC. Vega 64 war auch schon für weniger im Angebot. so um die 440€ aber wie gesagt. Angebote haben halt Sonderstellungen.

Ja, das ist deine Meinung. Wenn man sich die Fakten aber nüchtern anschaut, dann sind die Preise für das was geliefert wird sogar eher gesunken.
Wenn Nvidia heutzutage einen Chip mit 450 mm² für 499 Dollar anbietet und zum GTX 1080 Release für 314mm² 599 Dollar verlangt, dann braucht man hier nicht mit Vorwürfen kommen.
Das ist eine Firma und keine non Profit Organisation.

Ich bin Kunde. Natürlich beschwere ich mich über höhere Preise. Aber ich finde es witzig das es jetzt auf einmal wieder ein Thema ist wo es bei Vega ja noch unerhört war für einen 484mm Chip 499 Dollar zu verlangen. Und du erzählst uns was über Doppelmoral. Nevertheless ist mir scheiß egal wie groß Vega oder die Turing Chips sind oder ob Nvidia oder AMD bei größeren Chips kleinere Margen bekommen. Ich bezahl nicht nach Chipgröße. Aber so viel kann ich dir sagen. Klein werden die Margen nicht sein. Nvidia ist ein Wachstumsunternehmen genau wie AMD. Beide bescheißen die Kunden so gut sie können. Es ist echt traurig dass du als Konsumer das auch noch verteidigst und versuchst anderen Leuten die Preise akzeptabel zu reden. Bist ein gut konditionierter Großkonzernkunde.

Du wirst dich aber daran gewöhnen müssen, dass die Preise langfristig in solche Regionen steigen werden, da gibt es keine andere Alternative.
Dazu reicht ein Blick auf immer höher werdende Risikobereitschaft, Entwicklungskosten und Fertigungskosten, sowie immer höheren Aufwand für verbesserte Fertigungen.

Ach so ein Quatsch. Da würden die Hersteller so große Marktteile verlieren gegen den Mobile und Tablet markt. In beiden hat AMD und Nvidia übrigens nichts zu melden. Wenn PCs immer teurer werden ist irgendwann das Maß voll. Kann natürlich sein das AMD dann nurnoch Konsolen macht und Nvidia irgendwas außer Gaming und der PC-Markt stirbt.
Das geschrei von allen Seiten um die Turing-Preise sollte dir zeigen, dass das nicht so aktzeptabel für die Leute wie für dich ist.


Wenn AMD wieder bereit ist Highend zu liefern, dann werden die AMD Preise auch in diese Regionen ansteigen, abhängig von Chipgrößere, Fertigungskosten und Risiko.

Und dann haben sioe zurecht das gleiche geschrei der Leute am Hals.

Wenn etwas sehr teuer und rar in der Herstellung ist, steigt auch gleichzeitig der Preis.

Das geht aber auch nur bis in ein gewisses Maß. Für mich ist das maß schon länger überschritten. Aber ich hab ja immernoch die Option einfach auf Konsolen umzusteigen oder mir ein neus Hobby zu suchen. Und bevor ich solche Preise Zahl mach ich lieber eines der beiden genannten.

Nur mit Midrange wird AMD niemanden vom Hocker reißen und weiterhin das Dasein das ewig-Zweiten fristen.

Und das stört mich jetzt genau wie? Solange der Midrangebereich um die 250€ existiert sind 90% der Kunden zufrieden. Ist mir doch scheißegal welche Farbe das Logo auf meiner Karte hat. Du bist der einzige der hier dumm Rumtut und immer gegen einen spezifischen Hersteller schießt.

Oh man. Mit dir diskutieren ist einfach mühsig. Deine Meinug ist natürlich Fakt. Jeder der etwas anders sieht lebt in einer Blase. Du solltest echt mal an deinem Ego arbeiten. Und weil du das jetzt so schön oft betont hast. Es ist mir wirklich scheiß egal ob ich jetzt AMD oder Nvidia empfehl. Turing empfehle ich aus anderen Gründen nicht. Ich weiß auch nach wie vor nicht was die verdammte Diskussion um die Vega 56 mit dem Mod soll. Deine Aussage, dass das von Seitens Gurdi eine Lüge war stimmt so halt einfach nicht. Unabhängig von der Empfehlbarkeit.

Aber nur mal weil du ja so oft wiederholst ich soll lesen was du schreibst. Les du mal lieber.

Ne zammelige Red Dragon 56 ist schon schneller als die 2070er Stock mit OC.

Das war Gurdis ursprüngliche Aussage. Vega 56 OC schneller als ne 2070 Stock. (Was wahr ist. Siehe GN).

Ich kenne keine Vega die an Ihrem Durst erstickt ist. Insofern sollte das alles unproblematisch sein. Empfehlen würde ich es dennoch nicht.

Das war quasi die Aussage von Gurdi zur Empfehlung in dem Thread. Da steckt übrigens drinnen das die Karte sehr Stromhungrig ist.
Wie schon gesagt, du liest alles nur selektiert und machst ein riesen Affentheater draus.
Komm mal aus deiner Blase raus in der bei jedem Anschaffungskosten egal sind, deine MEINUNGEN Fakten sind und alles was andere sagen egal ist.

Nicht jeder braucht eine 500€ + Karte. Wenige wollen eine 500€+ Karte. Und um Gottes Willen hör auf Devils Advocate für verdammte Großkonzerne zu spielen die ihre Kunden bescheißen. Das ist genauso toll wie die Leute die aggresive Monetarisierungssysteme in Videospielen rechtfertigen. Nvidia hat ein Rekordwachstum und macht das sicher nicht zur Selbsterhaltung. Und AMD legt gerade über die CPU-Sparte auch ganz gut zu. Sich als Kunde hinzustellen und hohe Preise für andere zu rechtfertigen ist einfach nur dumm. Du als Kunde solltest am ehesten Interesse daran haben das GPUs nicht teurer werden. Aber bei dir hat man so das Gefühl das du das toll findest, dass PC-Gaming gegenüber Konsolen an attraktivität verliert wenn die Preise noch höher gehen.
Wenn du noch was willst, machs per PN. Das geht jetzt shon 3 Seiten so und ist mittlerweile einfach Spam.
 
Zuletzt bearbeitet von einem Moderator:
AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen

Du wirst dich aber daran gewöhnen müssen, dass die Preise langfristig in solche Regionen steigen werden, da gibt es keine andere Alternative.
Dazu reicht ein Blick auf immer höher werdende Risikobereitschaft, Entwicklungskosten und Fertigungskosten, sowie immer höheren Aufwand für verbesserte Fertigungen.

AMD zeigt im CPU Markt dass deine Aussage Blödsinn ist. Die Mondpreise für den X99 Refresh musste man zahlen weil es keine Alternative gab, mit Ryzen wurde sehr schnell deutlich, dass Intel auch "günstiger" kann.

Das Problem ist aber auch hier, dass ihr schon wieder von Dingen redet, die bisher gar nicht feststehen. Es gibt zum einen Regler und zum anderen ist gar nicht klar, wie weit die Optimierung der RT Features voranschreitet.
Es gibt auch mehrere Spiele die RT als Beleuchtung nutzen und in 4K 90 FPS auf einer RTX 2080 Ti anpeilen.:schief:
Es ist schon sehr erstaunlich, dass Leute die Dreistigkeit besitzen Features von vorneherein Schlechtzureden, ohne sie je gesehen zu haben, geschweige denn das finale Ergebnis zu kennen.

Es ist erstaunlich wie Leute die Dreistigkeit besitzen Features, die noch nicht am Markt implementiert sind in den Himmel zu loben.
Darum ist Skylake der bessere Gaming PC! Ist ein wunderbares Beispiel.
Skylake wurde ein Feature angekündigt bei dem die iGPU im Verbund mit der GPU rechnen können soll. Dies sollte die FPS steigern. Der TE des gelinkten Threads hat das zur absoluten Vormachtstellung des 6700k ausgebaut. Stand heute hat es nichtmal Ashes of Singularity implementiert.
Stand heute ist RTX eine Wundertüte, ähnlich wie DirectX 12 damals. Soll eine Menge können, ob das zutrifft ist ungewiss. Damit ist und bleibt Raytracing für diese Generation Grakas nicht DAS Verkaufsargument.


Genau das ist doch aber der Grund für die Ablehnung, getroffene Hunde bellen. Es ist schlicht der Preis.
Ich motze doch auch nicht dauernd herum weil ich mir keinen Porsche für 100 000 Euro leisten kann.

Natürlich ist es der Preis. Und du zeigst mal wieder das du den Kern des Arguments nicht verstanden hast. Niemand motzt über einen Porsche. Ein 911 war ist und bleibt teuer.
Eine 1080ti war teuer. Nur warum eine 2080ti auf einmal soviel MEHR kosten soll, DAS wird kritisiert.

Sicher habe ich das untermauert, bis Nvidia mir die Vorbestellung gestrichen hat, die Spezialisten.:ugly:
Neue Technik ist toll und spannend, nur weil ihr Dauernörgler alles schlechtreden müsst, lasse ich mir doch meinen Spaß nicht versauen.
Für Battlefield wird dann wohl eine RTX 2080 angeschafft.

Warum soll man ausgerechnet DIR die Vorbestellung gestrichen haben? War das Konto nicht gedeckt?
Oh eine 2080... Reicht das Geld wohl nicht für das Beste? Dachte du willst Spieleleistung JETZT. Pff hätteste auch schon vor 2 Jahren haben können wenn du eine 1080ti gekauft hättest.
Ohje, mit Proleten die sich bislang nichtmal 1080ti Leistung leisten wollten red ich doch garnicht, das ist ja aus PC Masterrace Sicht bestenfalls Prekariat.
 
Zurück