AW: RTX-Grafikkarten: Monitore mit und ohne G-Sync können BSOD hervorrufen
Siehe Aussage unter gewissen Umständen
Unter gewissen Umständen ist auch ein 2700x auf dem Niveau eines 9900K, dann wenn die GPU limitiert.
Es ist bei AMD immer so, dass unter gwissen Umständen etwas so und so sein soll.
Nur wenn ich dann alle anderen Umstände ignoriere und als unwichtig hinstelle, dann muss man sich den Vorwurf gefallen lassen, ob man so eine Kaufberatung auch wirklich ernst meint.
Nicht jeder übertaket und hinter dem Übertakten steht auch ein gewisses Risiko.
und meine genaue Spezifikation der Empfehlung mit: Für Bastler. Sag ich ja, selektiertes Lesen.
Man muss seine Empfehlung nicht schönreden, das ist eine Nischenempfehlung für Prinzipienreiter, die Nvidia nicht mögen und generell die Farbe über die Wahl des Produktes entscheiden lassen, aber nicht die Specs.
Leute kennen das Risiko von Übertaktung. Vor allem die Bastler die ich erwähnt habe. Early Adopter Bugs variieren da schon etwas mehr. Siehe Ryzen.
Ich habe als Ryzen Early Adopter keine Probleme gehabt den RAM innerhalb der Spezifikation zu betreiben.
Mit DDR4 2400 DR/2666 SR gab es da keinerlei Probleme.
Und wie schon bereits gesagt, Verbrauch war nicht Kontext der Aussage. Du kannst es noch 5x wiederholen. Und die Ratsamkeit des Mods auch nicht. Der Kontext meiner Aussage war, dass Gurdis Aussage unter gegebenen Vorraussetzungen wahr war.
Der Verbrauch spielt für ein System, für Hitzeentwicklung und Lautstärke, sowie Folgekosten immer eine Rolle.
Du kannst es auch noch 5x wiederholen dass das nicht interessiert, am Ende ist das als Empfehlung einfach Bullshit, auch hinsichtlich dessen, weil die Grundaussage kein OC bei einer RTX 2070 mit einbezieht.
Wusstest du, dass Sapphire früher standardmäßig 200mv + auf dem Kern bei ihrem OC-Tool zugelassen haben? Das ist nah an dem was der Mod macht. Der Chip macht das schon ne Weile mit wenn du ihn kühlst.
Eine Weile?
Okay. Also wärs okay wenn die GPU nach einem Jahr stirbt, weil man ja so ein mega doller Sparfuchs ist.
Ob's dir jetzt gefällt oder nicht, unter gewissen Umständen: Ja. Oder ist Steve ein Lügner?
Ironie, PCGH ermittelt ein Delta von 29%, 3D Center 27% und CB 25%. Da darfst du aber ordentlich takten um den Gap auszufüllen.
Natürlich ist eine maximal übertaktete Vega 56 nicht schneller als eine stock RTX 2070, aber auch hier wieder ist der Vergleich albern.
OC vs stock.
Joa wenn wir nach dem Extreme Forum gehen müsstest du garnichts empfehlen, die Leute kennen sich hier ja aus. Außerdem haben wir hier einige Übertakter/Bastler. Für die wäre auch Vega mit Mod was.
Du kannst halt dennoch nicht einfach irgendwo eine Obegrenze setzen und alles andere als "Goodie" bezeichnen, das hat so etwas von "nicht über den Tellerand" blicken.
Naja, Umstände beeinflussen Entscheidungen.
Wenn man alles andere ausblendet und in der Blase lebt, dann ja.
Die Quelle würd ich zu gerne sehen.
Frag Gurdi.
Moment: Sarkasmus on* Genau deshalb ist der Mod auch für jeden und nicht nur für Bastler empfehlenswert *Sarkasmus of.
Solche Spielereien mit MOD gegenüber einer etwas teureren RTX 2070 ist eigentlich für genau niemanden empfehlenswert.
Das ist schlicht und ergreifend Bullshit. Alleine die Stromkosten brauchen den monetären Abstand zur RTX 2070 locker innerhalb von 2 Jahren auf.
Die Investition ist schlicht und ergreifend purer Quark.
Jo, genau denen hab ich dann ne 1080/ti oder ne Vega 64 empfohlen und empfehle ihnen jetzt zu warten bis sich alles etwas relativiert hat, nachdem die 1080ti fast weg ist.
Um dann später zu erkennen, dass die User mal lieber zur fortschrittlicheren Technologie gegriffen hätten.
So eine GTX 1080 wird ohne RT und Tensor Cores, ohne Primitive Shader usw. immer mehr an Leistung verlieren.
Wenn man ein wenig Weitblick hat, dann sieht man die RTX 2070 bereits auf dem Niveau einer GTX 1080 Ti (siehe Wolfenstein zum Beispiel).
Wiso Geld verbrennen wenn mir und anderen das so reicht?
Du verbrennst das Geld ja dennoch über die Betriebskosten, wenn die Karte 220 Watt mehr aus der Dose zieht und musst auch das Netzteil teurer wählen.
Marketing. Wow. Entwickler sagen viel wenn der Tag lang ist.
Da ist mehr dahinter als Marketing. Nvidia drückt solche Features in den Markt.
AMD lässt sie verhungern.
Stimmt, ich muss ja jedes Feature haben bevor es etabliert ist und gut funktioniert. Die Option das Nvidia RTX erst in 2. Iteration auf die Reihe bekommt besteht ja garnicht. Das sehen wir ja an der Fülle der RT Titel die uns das beweißt. Oder nur für dich. Warte doch einfach bis was draußen ist. Dann siehst du ob RT sich lohnt. Warum solltest du drm Wort eines Großkonzerns der Geld machen will trauen?
Nein, muss man nicht, aber rein von der Logik her: Wer kauft sich eine 2,5 Jahre alte Karte, wenn er eine aktuelle mit deutlich modernerem Featureset und besserem Treibersupport haben kann?
Und ja, es gibt eine Fülle von RT Titeln, die kann man aber eben nicht alle sofort released haben, weil so ein Vorhaben auch dauert. Es gibt von MS noch nicht mal das nötige Windows Update.
Ich traue keinem Großkonzern, aber das RT eine Revolution sein wird, ist absolut klar. Es wird in Zukunft ohne RT keine vernünftige Verbesserung der BQ mehr geben.
Ich kann mich garnicht erinnern hier etwas zur Lautstärke der Vega 56 Kühler gesagt zu haben. Aber naja was solls.
Weil das bei der Gurdschen Empfehlung ja auch keinerlei Rolle spielt.
Gleichzeitig, sind die billigen Kühler auf einer RTX 2070 natürlich sehr laut!
ch hatte lange Zeit ne gemoddete 390x Devil mit +200mV am Kern und nem mächtigem OC. Ich hatte nie Probleme. Ist das jetzt repräsentativ? Abgesehen davon. Mich stört nicht was du empfiehlst. Dich stört was Gurdi oder auch ich empfehlen. Warum du was empfiehlst ist mir sogar ziemlich egal.
Wer hat behauptet, dass es repräsentativ ist, aber wenn du mal in die Foren schaust, wieviel Karten durch Übertaktung abrauchen, dann weißte bescheid.
Mich stört an solchen Empfehlungen dass nur die eigene Meinung/Bias zählt, Fakten neutral gegenüberstellen, zählt nichts.
Kommt drauf an was du willst. Wenn es jetzt was in dem Leistungsbereich sein soll. Why not. Ansonsten kann man Abwarten versuchen. Beschert einem Sicherheit und bessere Preise.
Die Vorteile einer RTX 2070 überwiegen aber deutlich, denen einer RX Vega, das ist nunmal so.
Und sollte AMD mal wieder eine vernünftige Karte bringen, dann wird sich das auch sicher ändern.
Ihr empfehlt nur AMD, weil ihr euch in eurer Robin Hood Blase dann wohler fühlt, tut aber damit niemandem einen Gefallen.
Und direkt nach Launch eben meistens mehr als danach. Würde mich als jemand aus deiner oben beschriebenen Zielgruppe schon nerven.
Und mich nerven User, die für ihren Lieblingsverein das letzte Hemd verargumentieren.
Schau her! Die RTX 2070 in einem cherry Pick mit einer RX vega 56 mit Power Mod geschlagen. Uiuiui.
Hab ich, genau deswegen die unfreundliche Reaktion.
Nein, du liest eigentlich nicht wirklich was ich schreibe.
Doch. Genau um die geht es. Du hältst andere Hardware als er für empfehlenswert. Deine Meinung, seine Meinung.
Nö, um die geht es nicht, es geht um Argumente und da zieht eine alte Stromschlucker-Vega mit OC nunmal einfach den kürzeren.
Das einzige valide pro Argument für AMD ist Freesync und das wars dann leider auch schon.
Er fand das NDA grenzwertig, du nicht. Die Hardware-Seiten waren sich auch nicht einig. Wie gesagt. Da gehen eure Meinungen halt auseinander.
Weil das eben seine Meinung ist, die mit den Fakten nichts zu tun hatte, besser gesagt eine Verschwörungstheorie.
Es hat sich in der Praxis der NDAs rein gar nichts geändert, man darf genauso berichten wie zuvor, also ist dieser Blödsinn den er von sich gibt auch in letzter Konsequenz klar widerlegt.
Meinungen gibt es hier nicht, es gab nur eine Fake News von Heise, die falsche Übersetzungen vornahmen und Aussage aus dem Zusammehang rissen.
Vega war zum Release günstig und im Miningboom dann unfassbar teuer.
Vega war nie besonders günstig, sondern zu Anfangs gabs ein schlechtes Referenzdesign für 500 Euro, was den Custom Designs einer GTX 1080 durchgehend unterlegen war, bei viel mehr Stromverbrauch.
Und das macht seine Auffassung zu den Preisen bei Nvidia auch nicht besser, er wendet schlicht und ergreifend für beide ganz andere Moralvorstellungen an.
500 Euro RTX 2070 10 bis 15% über Vega 64 teuer! Vega 64 für 479 Euro, günstig!
Betriebskosten gar nicht mit eingerechnet.
Der Preis für die 2080ti und 2080 ist auch finde ich imnernoch zu hoch einfach weil die 2080ti 70% mehr kostet und 30% mehr leistet und die 2080 ca. so schnell wie ne 1080ti ist aber weniger Speicher hat. Ob die 2080ti jetzt sie neue Titan ist ist mir ehrlich gesagt egal. Ich fand die Titan auch immer viel zu teuer.
Ja, das ist deine Meinung. Wenn man sich die Fakten aber nüchtern anschaut, dann sind die Preise für das was geliefert wird sogar eher gesunken.
Wenn Nvidia heutzutage einen Chip mit 450 mm² für 499 Dollar anbietet und zum GTX 1080 Release für 314mm² 599 Dollar verlangt, dann braucht man hier nicht mit Vorwürfen kommen.
Das ist eine Firma und keine non Profit Organisation.
Die 2080ti hat einfach verloren. eine Karte über 1000€ im Konsumer-Bereich würde ich niemals empfehlen.
Du wirst dich aber daran gewöhnen müssen, dass die Preise langfristig in solche Regionen steigen werden, da gibt es keine andere Alternative.
Dazu reicht ein Blick auf immer höher werdende Risikobereitschaft, Entwicklungskosten und Fertigungskosten, sowie immer höheren Aufwand für verbesserte Fertigungen.
Gibt's nicht, gibt nur ne Instinct und das is ne Pro (bzw. Machine Learning) Karte. Völlig andere Baustelle.
Wenn AMD wieder bereit ist Highend zu liefern, dann werden die AMD Preise auch in diese Regionen ansteigen, abhängig von Chipgrößere, Fertigungskosten und Risiko.
Der Chip darf kosten was er will.
Wenn etwas sehr teuer und rar in der Herstellung ist, steigt auch gleichzeitig der Preis.
Sehen wir dann. Ist doch egal ob AMD die schnellste Karte/CPU der Welt hat solange die Midrangeprodukte in der Region in der die meißten kaufen passen.
Nur mit Midrange wird AMD niemanden vom Hocker reißen und weiterhin das Dasein das ewig-Zweiten fristen.
Mit dir ist eh jede Debatte obsolet. Die Belege dazu hatte ich schon gepostet, such es wenn es dich interessiert.
Ich kenne es so, dass derjeniege der Behauptungen aufstellt, bei Nachfrage auch die Quelle dazu liefert.
Ergo Gsync kostet Leistung.
G-sync kostet auf meiner GTX 1080 und GTX 1080 Ti auf einem 144 Hertz GSync Monitor keinerlei Leistung, wenn ich es aktiviere.
Und der Zusammenhang den du knüpfst, den kann ich nicht verstehen. Wer 1300€ für eine Graka ausgibt und dann das "tollste" Feature am Ende nur in FHD "genießen" kann, der ist zurecht sauer, vor allem wenn er davor mehrere hundert Euro in 1440p / 4k Monitor(e) gesteckt hat.
Das Problem ist aber auch hier, dass ihr schon wieder von Dingen redet, die bisher gar nicht feststehen. Es gibt zum einen Regler und zum anderen ist gar nicht klar, wie weit die Optimierung der RT Features voranschreitet.
Es gibt auch mehrere Spiele die RT als Beleuchtung nutzen und in 4K 90 FPS auf einer RTX 2080 Ti anpeilen.
Es ist schon sehr erstaunlich, dass Leute die Dreistigkeit besitzen Features von vorneherein Schlechtzureden, ohne sie je gesehen zu haben, geschweige denn das finale Ergebnis zu kennen.
Und dann ist es vollkommen egal ob Schaffe wieder seinen pseudoelitären Quatsch von wegen "man könne sich das nur nicht leisten" absondert
Genau das ist doch aber der Grund für die Ablehnung, getroffene Hunde bellen. Es ist schlicht der Preis.
Ich motze doch auch nicht dauernd herum weil ich mir keinen Porsche für 100 000 Euro leisten kann.
Schaffe hat doch bestimmt seine eigene Argumentation mit dem Kauf mindestens einer 2080ti untermauert und kann das mit SIcherheit jederzeit mit dem im Handelsforum üblichen Bild hier beweisen
Sicher habe ich das untermauert, bis Nvidia mir die Vorbestellung gestrichen hat, die Spezialisten.
Neue Technik ist toll und spannend, nur weil ihr Dauernörgler alles schlechtreden müsst, lasse ich mir doch meinen Spaß nicht versauen.
Für Battlefield wird dann wohl eine RTX 2080 angeschafft.
RTX ist letzteres für viele offensichtlich nicht.
Richtig und das liegt daran, weil sich viele Menschen solch hohe Ausgaben nicht leisten können.
Aber das wird noch deutlich schlimmer werden. High End wird im Preis immer weiter ansteigen.
Also finde dich damit ab.
Es steht immer noch in dem Link den du zitierst. Kannst dich ja bei Computerbase schriftlich beschweren wenn es dich so stört.
Gsync kostet mit 60Hz keine Leistung. Mit SLI, 120/144Hz und insbesondere mit HDR aber schon.
HDR kostet Leistung, G-sync nicht.