Reddit: User fragt sich, ob er vier Jahre ohne Desktop-Grafikkarte spielte

ja gut ... die 1050 Ti zieht auch nicht wirklich die Wurst vom Teller.

kA wer die 1050 Ti als Gaming Karte empfohlen hatte, ich war extrem enttäuscht/geschockt von der Leistung !

Schnell mit 10€ Gewinn verkauft und für 20€ weniger eine GTX 970 im Rechner vom Sohnemann verbaut.

2 Welten.

Will sagen: ich würde es sofort erkennen. Aber von der Leistung her sind beide Lösung nur was für bessere Office Lösungen. Oder der Notfall Gaming PC.
 
ja gut ... die 1050 Ti zieht auch nicht wirklich die Wurst vom Teller.

kA wer die 1050 Ti als Gaming Karte empfohlen hatte, ich war extrem enttäuscht/geschockt von der Leistung !

Schnell mit 10€ Gewinn verkauft und für 20€ weniger eine GTX 970 im Rechner vom Sohnemann verbaut.

2 Welten.

Will sagen: ich würde es sofort erkennen. Aber von der Leistung her sind beide Lösung nur was für bessere Office Lösungen. Oder der Notfall Gaming PC.
Natürlich aber hättest Du gefragt hätte ich dir das gleich gesagt dass eine 970er besser ist als eine 1050Ti. Denn auch wenn diese von der Gen danach kommt ist es nur eine 50er und die 970er, die ich in meinem altem gaming Rechner vorher drin hatte war damals bei dieser Reihe die 2t schnellste Grafikkarte vor der 980er. Selbst heute bekomme ich auf der bei Spielen bis jetzt bis 2017 an die 74 FPS bei WQHD Auflösung raus
 
Natürlich aber hättest Du gefragt hätte ich dir das gleich gesagt dass eine 970er besser ist als eine 1050Ti.

Alles gut. Dachte die "reicht" xD war aber echt armselig. Selbst für "nur" 2560x1080.

EVGA 1050 Ti für 70€ gekauft
für 80€ verkauft
Gigabyte GTX 970 G1 für 60€ gekauft.

Von daher alles optimal verlaufen.
Ist natürlich schon wieder eine Weile her ;)
 
Alles gut. Dachte die "reicht" xD war aber echt armselig. Selbst für "nur" 2560x1080.

EVGA 1050 Ti für 70€ gekauft
für 80€ verkauft
Gigabyte GTX 970 G1 für 60€ gekauft.

Von daher alles optimal verlaufen.
Ist natürlich schon wieder eine Weile her ;)
Du meinst 1920x1080p ? Denn das ist HD
2560 x1440p ist dann WQHD
 
Ich hatte noch keine Probleme und bei den Treiber hat AMD auch so manchen Bock geschossen. (wobei sich Nvidia und AMD da nichtmehr viel geben).

Meine GTX 670 läuft noch rund, sieht man von den 2GB VRAM ab.
Mag sein, dass du keine Probleme hattest bisher. Aber bei ein paar Titeln gibt es auf der Kepler Arch. Probleme was die Bildqualität angeht. Das ist Fakt. Schau dir mal ein Video auf Youtube für HZD z.B. an, das ist jetzt eines der Games die ich erst gespielt hatte, gibt sicher noch mehr.
Dass die GTX 670 für vieles in 720p und 1080p Low/High reicht mag sein, kommt auf den Anspruch drauf an^^

VRAM ist einer der wichtigsten Dinge, wenn man seine Karte möglichst lange nutzen möchte.
Natürlich, direkt nach der puren Leistung an sich, aber manche Architekturen altern einfach schneller wie andere.
Schaut man in die Vergangenheit hat es massive Änderungen der Shaderarch. gegeben, dann noch viele DX Änderungen seit DX9 und das schnell aufeinander, seit längerem stagniert es ja, deshalb sind 6 Jahre alte Grakas auch noch fähig zu vielem, sobald man aber zu Karten wie Fermi kommt, wo DX12 nicht mehr geht, wirds langsam eng^^.

Die Nvidiaarchitekturen waren eigentlich alle ganz gut, da habe ich wenig auszusetzen, wenn man Karten, wie die erste Titan betrachtet. Sie haben eben sehr oft am VRAM gegeizt (GTX670/680, GTX 780 (Ti), Turing und jetzt Ampere, mit Ausnahme der RTX 3090 und 3060).
Ach was, 6000GTX, 8000GTX, GTX200, GTX500, GTX 600 und GTX900/1000 waren gut.
Die meisten waren Effizient unterwegs und wirklich ein guter Wurf, den Rest kannst du direkt in die Tonne kloppen.
GTX400 war ein Heizlüfter, GTX700 war Kepler auf Steroiden mit ner Titan ganz oben in der Reihe, die war gut, sparsam nicht aber mei... und über RTX2000 und 3000 muss ich nichts sagen, RTX2000 war "OK" mit neuen RTX Features und ohne Rasterizing Leistungsplus (25% zur 1080Ti bei der 2080Ti - Yaayyy....)... und RTX3000 ist gut, bis auf die miese Performance per Watt, die vielen HDMI2.1 Bugs, anfänglichen Probleme mit ausfallenden Karten und was weiß ich sonst noch... man kann sich auch selber belügen, ich hab zwar ne RTX3090 und ich mag die Karte, aber ist es das "rundeste" Superprodukt?! Sure not, am Ende ist es die erste Karte seit einem Jahrzehnt für die ich explizit wieder ne Wakü wollte (gut mir ist Stromverbrauch egal) weil die Temps doch jenseits von gut und Böse waren bei max. PL.

Abwarten. Möglich, dass Raytracing sich breit durchsetzt und dann kommt man mit diesen Karten doch wesentlich weiter. DLSS haben sie auch und FFX unterstützen sie ja sowieso.
Ach was, der Fortschritt in der RTX Performance wird mit jeder Gen um einen Faktor >1-2 zunehmen, DLSS mag sein, aber RTX ist mit RTX4000 schon direkt outdated was die Performance alter Karten angeht und das wird sich weiterziehen.
AMDs Technik heißt FSR (Fidelity FX Super Resolution), FFX ist die komplette "Suite".
Läuft natürlich, aber ist eben nur ein etwas "besserer" Upscaler, auch wenn ich bei Ultra Quality in Godfall keinen Unterschied - zumindest nicht heftig - gesehen habe.

Die GTX 480 war einfach brutal laut und heiß.
Ich hatte und habe diese Karte noch, das Ding ist UNERTRÄGLICH LAUT, und kann im Winter als Heizlüfter dienen, wenn ich damals nicht mit der HD4870 so Probleme gehabt hätte, hätte ich evtl. die HD5870 genommen...
Das Ding war einfach nicht geil, erst der Refresh mit der GTX580 war endlich die erhoffte "Erlösung". Für gefühlt 1-5% mehr Performance rechtfertigt es nicht so viel mehr W...

Dann macht man daraus einen anständigen Artikel und nicht so einen Quatsch von nem Heini der irgendwas bei Reddit gepostet hat ohne das irgendein Erkenntnisgewinn stattgefunden hat.

Oder man greift das Thema auf und testet das anständig und schafft Fakten was wirklich Sache ist.
Das wäre ja Arbeit gewesen, der Kaffee und 9Gag war wichtiger :ugly:

really? :hmm:
made my day... :lol::lol::lol:

Ich, als GTX 1080 Besitzer, sage dazu mal nichts, es würde nur negativ auffallen... :schief:
Was hat die 1080 damit zu tun? Die läuft noch anstandslos, beleuchte mich.

Ich zocke nicht in 4k dann brauche ich auch keine 16 GB VRAM und bis ich mir in 4 Jahren auch nicht eine neue Grafikkarte dann hole wird bei mir alles in WQHD gezockt und ich kann auch mit meiner 3080er in 4k zocken wenn ich es wollte denn mein Monitor kann das obwohl es nur ein WQHD ist
Natürlich reicht die für 1440p. 4K wird sich auf 4 Jahre in der Zukunft zeigen, aber ich vermute du holst dir eh die nächste Gen...
Und nein, der Monitor deiner Signatur kann Native 1440p... wenn du willst kannst du DSR auf 2160p machen, das kann aber jeder... das kann dein Monitor nicht...

Das ist nichts neues, die meisten Karten werden im Bereich von 100-300€ verkauft.
Früher^^. Heute kriegt man dafür ne Handvoll Shader einer Mitteklasse GPU xD
 
Dann glaube das mal in Deiner realitätsfernen Welt.

Selbst in deinen Tests sagen sie, dass die Karte stärker ist. Dann sind da noch der größere VRAM und die wesentlich länger Treiberunterstützung dazugekommen.

Das Lärmproblem ist eben subjektiv. (auch wenn sich Nvidia mit dem Referenzkühler keinen Gefallen getan hat)

Natürlich, direkt nach der puren Leistung an sich, aber manche Architekturen altern einfach schneller wie andere.
Schaut man in die Vergangenheit hat es massive Änderungen der Shaderarch. gegeben, dann noch viele DX Änderungen seit DX9 und das schnell aufeinander, seit längerem stagniert es ja, deshalb sind 6 Jahre alte Grakas auch noch fähig zu vielem, sobald man aber zu Karten wie Fermi kommt, wo DX12 nicht mehr geht, wirds langsam eng^^.

Bei DX 12 ist eben das Problem, dass jede DX 11 Karte auch irgendwie eine DX 12 Karte ist und die DX12 Karten oft nicht voll DX12 kompatibel sind (die Skylake IGPs waren ja die ersten voll kompatible). Da hat MS mit seinem Featurelevel einen echten Bock geschossen, neben der dämlichen Idee das ganze nur für das neueste OS anzubieten.

In letzter Zeit nimmt die Sache Fahrt auf und soweit ich weiß betrifft das vorallem die ersten beiden Titanen und die GTX 780(Ti), da die die nötige Geschwindigkeit und VRAM haben, aber nicht das FL.

Ach was, der Fortschritt in der RTX Performance wird mit jeder Gen um einen Faktor >1-2 zunehmen, DLSS mag sein, aber RTX ist mit RTX4000 schon direkt outdated was die Performance alter Karten angeht und das wird sich weiterziehen.

Schwer zu sagen. Bei AMD vermutlich, sonst haben sie ein echtes Problem. Bei Nvidia gab es bei der RTX 3000 allerdings keine solch überproportionale Steigerung. Mal schauen, was die Zukunft bringt, heute geht es ja nur im Schneckentempo voran (vom Faktor 1000 in einer Dekade kann man ja nur träumen.

Früher^^. Heute kriegt man dafür ne Handvoll Shader einer Mitteklasse GPU xD

Die meisten Leute sind immernoch in dieser Preisregion unterwegs.
 
Äh ja klar , der Hardware Manager wurde nie benutzt ?!

Treiber wurden nie Aktualisiert .

Und natürlich ist das auch nie in Programmen wie zum Beispiel dem MSI Afterburner aufgefallen ?!

:schief:
Du wirst lachen, es gibt genügend solcher Leute die nur anschließen und loslegen und sich um nichts kümmern.
Ich hatte z.B. mal einen Kollegen der hat über zwei Jahre auf einem 27 Zoll Monitor mit einem extrem großen schwarzen Rand gespielt weil er das Bild im Treiber nicht auf die Größe des Monitors angepasst hat, der Dachte auch die ganze Zeit das muss so sein, der hatte also einen 27 Zoll und hat mit dem Bild von einem 24 Zoll gespielt quasi.
Ich hab dem das dann mal eingestellt als ich das mal gesehen habe und der war total erstaunt und erfreut wie groß das Bild auf dem Monitor doch war und wie wenig schwarzer Rand nur noch zu sehen war. :lol:
ja gut ... die 1050 Ti zieht auch nicht wirklich die Wurst vom Teller.

kA wer die 1050 Ti als Gaming Karte empfohlen hatte, ich war extrem enttäuscht/geschockt von der Leistung !

Schnell mit 10€ Gewinn verkauft und für 20€ weniger eine GTX 970 im Rechner vom Sohnemann verbaut.

2 Welten.

Will sagen: ich würde es sofort erkennen. Aber von der Leistung her sind beide Lösung nur was für bessere Office Lösungen. Oder der Notfall Gaming PC.
Gefühlt ein Drittel in in meinem Bekanntenkreis und unserer Gaming Community spielt mit einer 1050ti in ihren Rechnern und die spielen alles Querbeet und selbst die neuesten Titel.
Es ist durchaus eine Gaming GPU und vor vier Jahren erst Recht.
Vielleicht ab und an mal über den Tellerrand eines Hardwareforums schauen.
Als ich meine RTX 2080ti verkauft habe und übergangsweise die RX 580 eingebaut habe hatte ich auch erhebliche Bedenken ob ich noch vernünftig zocken kann, aber die "kleine" RX 580 erstaunt mich jedes mal wieder wie gut die immer noch läuft und es gibt kein spiel was ich mit ihr nicht gut - sehr gut spielen kann, natürlich auch aufgrund ihrer 8GB.
 
Zuletzt bearbeitet:
In anderen Übersetzungen der Geschichte ist die Rede davon, dass er jetzt 80 FPS mehr (die 3 Fache Leistung) hat und mit höheren Details unterwegs ist.

Damit ist klar, dass es die IGP war und PCGH mal wieder etwas schlecht übersetzt hat.

Hier die Version von Gamestar, in der es besser rüberkommt:



:klatsch:

Klar, ist ja auch nur die 4-5 fache Leistung und zusätzlich 4GB VRAM, den Unterschied merkt doch keiner.

BTW: wärst du bereit die Graka mit mir zu tauschen? Da ist der Unterschied etwa genauso groß und ich würde sogar einen Hunni drauflegen. Was sagst du?

Du verwechselst da jetzt aber verschiedene Posts. Der Post um den es hier bei der PCGH News geht wird die Frage gestellt ob der User seinen Monitor an den falschen Port angesteckt hat. Im Update berichtet er das er keinen Leistungsunterschied feststellen kann nachdem er den Monitor direkt an die GPU gesteckt hat.

Was die Gamestar schreibt ist einfach nur das eine 1050ti 2-3mal so schnell ist wie die Vega iGPU. Da kommt dann halt die Frage auf warum der Reddit User nach dem Umstecken keinen Leistungsunterschied feststellen kann (Update kam erst nach Veröffentlichung des Gamestar Artikels).

Wovon du noch schreibst bezieht sich dann aber auf den anderen Reddit Post der den User aus der News nachdenklich gemacht hat. In diesem anderen Fall hat die Mutter vom PC alle Kabel ab gemacht und der Sohn hat die wieder angesteckt und hatte dann Leistungseinbußen und ist z.B. von 300FPS auf 70FPS gefallen und die Lösung in dem Fall war dass das Kabel am Mainboard angeschlossen war und nicht der GPU.

Was mich bei der News stört (sowohl bei der Version der PCGH als auch der Gamestar) ist das die Sache nicht einfach mal getestet wurde. Beide Seiten haben eine Hardwareabteilung mit Testrig usw. Da könnte man doch problemlos das Ganze mal mit einem Intel und einem AMD System nachtesten um zu gucken ob das GPU Signal durchgeschliffen wird oder nicht.

Ich weiß das damals bei meinem Intel 3770k über das Mainboard nur das iGPU Signal ausgegeben wurde. Bei moderneren Systemen und besonders bei AMD weiß ich nicht wie sich das verhält. Es hat sich ja sehr viel getan über die Jahre. Bei Laptops musste man früher z.B. auch per Hand umschalten welche GPU für Desktop und für Anwendungen genutzt wird und mittlerweile funktioniert das automatisch.
 
@Daggy82

Eine RX 580 hat wesentlich mehr Leistung als eine 1050 Ti.
Dein Vergleich hinkt leider ;)

Die GPU ist quasi auf dem gleichen Leistungsniveau wie eine GTX 970

xD

Du siehst: wir haben alles richtig gemacht.
Ich eben noch mit dem Umstand der mir einen kleinen Bonus eingebracht hat.

Mal im ernst: Ich wollte damit nur zum Ausdruck bringen, dass ich ohne nach den Kabeln hinten am Rechner zu schauen oder Treiber/SW zu checken evtl. dazu geneigt wäre zu sagen: Ajaaa gut, ist halt ne 1050 Ti. (obwohl eben die APU läuft)

Hätte aber eigentlich bei den Treibern auffallen müssen ;)

Natürlich kann man auch damit zocken. Noch bin ich auf PCMR Welle unterwegs xD das wird aber wohl auch weniger wenn ich endlich die Retro Ecke im Keller fertig habe (Herbst hoffentlich)
 
@DarthSlayer

Der Monitor kostet kaum mehr als ein FullHD 24" und ist eigentlich nur ein Überbleibsel meines alten Systems. Deswegen hat Sohn jetzt diesen Bildschirm.

Upgrade ging dann wie folgt:

i5 + 8GB + HD 7850
i5 + 12GB + GTX 1050 Ti
Ryzen 5 1600 AF + 16GB + GTX 970

Weißt nicht was an 21:9 so besonders ist. Will es nicht mehr missen, aber deswegen muss ich ja keinem Benz fahren xD


Ich hab noch mehr Rechner zu versorgen. Da kann ich nicht immer Vollgas gehen. Zumal Sohn es nicht merken würde da der Bildschirm 60Hz hat und das System auf 58fps gelockt ist. Reicht voll und ganz. Selbst für Wreckfest.

HTPC mit 1080 Ti
Frau PC mit RX 580
Keller PC mit HD 7850
Retro PC mit HD 3870
 
@DarthSlayer

Der Monitor kostet kaum mehr als ein FullHD 24" und ist eigentlich nur ein Überbleibsel meines alten Systems. Deswegen hat Sohn jetzt diesen Bildschirm.

Upgrade ging dann wie folgt:

i5 + 8GB + HD 7850
i5 + 12GB + GTX 1050 Ti
Ryzen 5 1600 AF + 16GB + GTX 970

Weißt nicht was an 21:9 so besonders ist. Will es nicht mehr missen, aber deswegen muss ich ja keinem Benz fahren xD


Ich hab noch mehr Rechner zu versorgen. Da kann ich nicht immer Vollgas gehen. Zumal Sohn es nicht merken würde da der Bildschirm 60Hz hat und das System auf 58fps gelockt ist. Reicht voll und ganz. Selbst für Wreckfest.

HTPC mit 1080 Ti
Frau PC mit RX 580
Keller PC mit HD 7850
Retro PC mit HD 3870
Ich habe die Monitore lieber 16:9 aber dafür groß. Deswegen ein 32 Zoll WQHD den ich habe und zwar was besonderes und nicht 0815

Was ich nicht verstehe ist. Deine Frau hat eine RX 580er drin ? Wieso nicht Du ? Die ist paar % schneller als die 970er
 
Zuletzt bearbeitet:
Einmal 21:9 immer 21:9 und auch nicht curved ;)

Entspricht auch mehr dem natürlichen Sehfeld.
Deine 1440 in Höhe hab ich auch ;)
 
Zuletzt bearbeitet:
Einmal 21:9 immer 21:9 und auch nicht curved ;)

Entspricht auch mehr dem natürlichen Sehfeld.
Deine 1440 in Höhe hab ich auch ;)
Seit wann entspricht 21:9 mehr dem natürlichen Sehfeld?

"Bei einem Erwachsenen beträgt die horizontale Ausdehnung des binokularen Gesichtsfelds etwa 214° (±107° auf jeder Seite) die vertikale zirka 60°–70° nach oben und 70°–80° nach unten."

horizontal 214°, vertikal mindestens 130°... das ergäbe einen Aspekt von 1,65:1... ziemlich nah an 16:9- und 16:10-Displays, ziemlich nah am "goldenen Schnitt".

Aber das Gesichtsfeld sagt ja auch noch nicht so viel über den Sichtbereich aus, in dem man alles scharf sieht.

Da kann jeder für sich einen kleinen Selbstversuch machen, dauert keine Minute:

Ganz nah an das Display ran, so dass man die Ränder nicht mehr sieht.
Dann langsam den Kopf zurückziehen. Welche Ränder kann man zuerst gleichzeitig klar erkennen?

Bei meinem alten 4:3-Fernseher waren zuerst der linke und rechte Rand scharf zu sehen, der obere und untere Rand erst bei größerer Entfernung.

Bei meinem 16:9-Fernseher undbei meinen 16:9- und 16:10-Monitoren waren alle 4 Ränder ungefähr gleichzeitig scharf zu sehen.

Bei Cinemascope-Filmen (2,35:1) auf dem Fernseher bzw. der Projektor-Leinwand und bei Ultrawidescreen-Monitoren sehe ich viel eher den oberen und unteren Rand scharf; die Ränder an den Seiten erst bei größerer Entfernung.
 
Zurück