• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Reddit: User fragt sich, ob er vier Jahre ohne Desktop-Grafikkarte spielte

DarthSlayer

Freizeitschrauber(in)
Mein Ryzen 4500U im neueren Laptop kann der GTX 1050 imn alten Laptop aber nicht das Wasser reichen! Das der Typ es nicht merkte, 4 Jahre lang, lag nur daran das er nie geprüft hat mit Software was den genau die Bilder ausgibt. Oder zumindest mit Afterburner die Auslastung prüfen, besonders bei neuer HW empfehlenswert. Zwischen 4GB und 256MB? VRAM liegt ein gewaltiger Unterschied!
Vergiß die ganzen Afterburner Zusatzsoftware. Das siehst Du schon bei der allgemeinen AMD Grafikkartensoftware. Das sehe ich auch an dem 8 Kerner 4700U Asus Vivobook Laptop immer bei der Installation auf der Arbeit den wir im Verkauf haben und der hat schon sogar eine Vega 7 drin und nicht wie das 4500er u Vega 6
 

Gamer090

PCGH-Community-Veteran(in)
Vergiß die ganzen Afterburner Zusatzsoftware. Das siehst Du schon bei der allgemeinen AMD Grafikkartensoftware. Das sehe ich auch an dem 8 Kerner 4700U Asus Vivobook Laptop immer bei der Installation auf der Arbeit den wir im Verkauf haben und der hat schon sogar eine Vega 7 drin und nicht wie das 4500er u Vega 6
Klar kannst du auch die Grafikkartensoftware nutzen, Afterburner nutze ich während des Spielens um die Auslastung zu sehen. Spätestens da hätte es ihm auffallen sollen, allein schon beim VRAM.
 

DarthSlayer

Freizeitschrauber(in)
Klar kannst du auch die Grafikkartensoftware nutzen, Afterburner nutze ich während des Spielens um die Auslastung zu sehen. Spätestens da hätte es ihm auffallen sollen, allein schon beim VRAM.
Um die Auslastung einzusehen mache ich einfach den Affengriff und gehe aus dem Spiel in den Taskmanger rein und siehe auch dort die CPU/GPU/RAM Auslastung
 
U

unti20

Guest
Und ich bevorzuge bei Nvidia lieber DLSS 2.0 was die AMD Dinger gar nicht haben obwohl sie erst später ihr Release hatten als 16 GB VRAM, die kein Mensch braucht vor allem wenn er noch wie ich in WQHD zockt und als 4t beste Grafikkarte also meiner bin ich ganz gut dabei bei den high End GPUS nach
Platz 1 GeForce 3080 Ti
Platz 2 AMD 6900XT
Platz 3 GeForce 3090 und
Platz 4 GeForce 3080

16GB sind schon sinnvoll in 4K, 10GB zu wenig und 12GB grad so i.O., mir persönlich wärs Wayne, ich kauf sowieso bei erschienen von RTX4000 direkt die 4090 oder so, aber an sich kein schlechter Move von AMD bzw. optimale Ausstattung für das Produkt.
Ist das deine Rangliste xD? Ursprünglich sieht die anders aus, wenn es nach Leistung geht, kann es bei dir nicht direkt rauslesen, deine Sätze muss man aufgrund Satzbau echt manchmal 3x lesen um zu verstehen was du meinst ;).

Und natürlich ist das auch nie in Programmen wie zum Beispiel dem MSI Afterburner aufgefallen ?!
Jemand der mit solcher Hardware rumläuft hat meist keinen Schimmer von "Wie muss mein System performen"^^. Change my Mind.
Afterburner nutze ich während des Spielens um die Auslastung zu sehen. Spätestens da hätte es ihm auffallen sollen, allein schon beim VRAM
Siehe obiger Punkt und manchmal spinnt Afterburner auch bzw. gibt sehr viel weniger Hardwaredetails aus - Offtopic-Info. Ich selber verwende RTSS Standalone mit HWinfo64 und dem RTSS Overlay. Stellt man einmal ein und exportiert sichs fürs Reinstallen von Win beim nächsten Major Upgrade und fertig ;)

Shice auf den Afterburner und co. :klatsch:

Taskmanager FTW!1!!1!elf!! :lol:
Nein. Gott was habt ihr denn genommen xD
Um die Auslastung einzusehen mache ich einfach den Affengriff und gehe aus dem Spiel in den Taskmanger rein und siehe auch dort die CPU/GPU/RAM Auslastung
Falsch.
Viele Games haben keine Utiliz. mehr, wenn du "Raus-TABst" und auf dem Desktop landest.
Zuverlässige Messungen werden Ingame bzw. im Fullscreen der 3D Anwendung durchgeführt.
 

Norkzlam

Freizeitschrauber(in)
Äh ja klar , der Hardware Manager wurde nie benutzt ?!

Treiber wurden nie Aktualisiert .

Und natürlich ist das auch nie in Programmen wie zum Beispiel dem MSI Afterburner aufgefallen ?!

:schief:
Glaubt du wirklich, der durchschnittliche User würde irgendwas davon machen? Ich lege meine Hand dafür ins Feuer, das die Mehrheit der Leute in ihrem Leben noch nie den Hardware Manger benutzt hat. Den Afterburner wird nur eine verschwindende Minderheit der Leute kennen.
Die meisten Unser dürften nicht mal wissen, welche Hardware überhaupt in ihrem System verbaut ist.
 

Pu244

Lötkolbengott/-göttin
Natürlich hast du recht, aber die APU ist von der Arch. aktueller. Macht das Ding nicht schneller, aber die ersten GTX600er Kepler Karten haben in heutigen Games so ihre Probleme, teilweise massive Bugs, Probleme mit bestimmten DX Versionen in Games usw.
Liegt aber an der Gen. AMD Karten aus der Zeit die vergleichbar sind laufen teils noch runder.
z.B. Massives Texture Flickering in Horizon Zero Dawn nur um eines der neueren Titel zu nennen - GTX700 hat hier auch ihre Probleme, da beides auf "Kepler" basiert.

Ich hatte noch keine Probleme und bei den Treiber hat AMD auch so manchen Bock geschossen. (wobei sich Nvidia und AMD da nichtmehr viel geben).

Meine GTX 670 läuft noch rund, sieht man von den 2GB VRAM ab.

Der Mythos mit dem VRAM ist sowieso totaler Nonsense.

VRAM ist einer der wichtigsten Dinge, wenn man seine Karte möglichst lange nutzen möchte.

Ich hab seit jeher auch in Anbetracht vergangener Ereignisse die Architekturen betrachtet.
NV ist hier auch nicht immer die Eierlegende Wollmilchsau.

Die Nvidiaarchitekturen waren eigentlich alle ganz gut, da habe ich wenig auszusetzen, wenn man Karten, wie die erste Titan betrachtet. Sie haben eben sehr oft am VRAM gegeizt (GTX670/680, GTX 780 (Ti), Turing und jetzt Ampere, mit Ausnahme der RTX 3090 und 3060).

Du darfst aber aufgrund der Stagnation im Gamingsektor und vor allem der Stagnation in Grafik nicht davon ausgehen, was wie schneller oder besser altert, vor allem ist "Maxwell" und deren Nachfolger "Pascal" auch ein Glücksgriff gewesen von NV, gepaart mit der Unfähigkeit eine gute Architektur von AMD als Konter zu haben.

Wenn wir die Kirche im Dorf lassen, dann gibt es bei AMD nicht viel auszusetzen.

Es gibt nur 3 Probleme:
1: zu wenig VRAM vei der Fury X
2: absolut großmäulige Ankündigungen zur Fury X und vorallem zu Vega (poor Volta), aus denen dann nichts wurde
3: die frühe Treibereinstellung, besonders bei den R9 200 und 300 Karten, sowie der Fury X

"Pascal aka GTX1000" ist so legendär, dass sie bald an die GTX8000er G80 Chips an Fame rankommt. Kaum ein anderer Grafikchip hat sooooo lange gehalten und damit hat vermutlich nichtmal NV selbst gerechnet.

Wenn genug VRAM verbaut ist und die Leistung stimmt, dann halten eigentlich alle Karten relativ lange. Die R9 290X schlägt die GTX 1650 um 25% und das obwohl die Karte 6 Jahre später rauskam und vor dem Miningboom noch für knapp 150€ verkauft wurde. Ich finde, das kann sich echt sehen lassen.

Man sieht es davor Fermi - GTX400/GTX500 war kacke. Mit Kepler wurde es wieder besser GTX600/700 und mit Maxwell GTX900 und Pascal hat NV den Vogel total abgeschossen.

Die Karten waren schon gut und im Vergleich mit der HD 5870 1GB war die GTX 480 ganz klar die bessere Karte. Mit der längeren Treiberunterstützung ist Nvidia sowieso nichtmehr einholbar gewesen.

AMD krankt halt langfristig an seiner kurzen Treiberunterstützung. Die R9 390X ist, dank ihren 8GB VRAM, klar die bessere Karte, da ändern auch die 120W weniger Verbrauch der GTX 980 nichts. Allerdings hat AMD die Treiberunterstützung eingestellt, während Nvidia wohl noch 2-4 Jahre weitermacht.

Turing und Ampere sind hier eigentlich wieder Produkte die im Schatten stehen und keinen "Aha, wow, total Genial" Effekt auslösen. Im Endeffekt sind es Produkte die keinen "Massive Leap in Gaming Performance" gebracht haben. Zumal Grafikkarten im Vergleich zu Konsolenhardware aufgrund der Softwareseitigen Auslegung sowieso viel schneller altern wie Konsolen an sich...

Abwarten. Möglich, dass Raytracing sich breit durchsetzt und dann kommt man mit diesen Karten doch wesentlich weiter. DLSS haben sie auch und FFX unterstützen sie ja sowieso.

Bin ich der Einzige der sich fragt warum das ein Artikel wert ist?

Belustigung und wenn auch nur ein paar Leuten bei der Überprüfung auffällt, dass das Kabel in der falschen Buchse steckt, dann hat es auch was gutes.

Mein Ryzen 4500U im neueren Laptop kann der GTX 1050 imn alten Laptop aber nicht das Wasser reichen! Das der Typ es nicht merkte, 4 Jahre lang, lag nur daran das er nie geprüft hat mit Software was den genau die Bilder ausgibt. Oder zumindest mit Afterburner die Auslastung prüfen, besonders bei neuer HW empfehlenswert. Zwischen 4GB und 256MB? VRAM liegt ein gewaltiger Unterschied!

Er hat keine anspruchsvollen Spiele gezockt und da er keinen Vergleich hatte, ist ihm auch nie etwas aufgefallen.

Es gibt eben Leute, die bringen das Wort "Afterburner" eben in erster Line mit Kampflugzeugen in Verbindung, wie es sich eigentlich auch gehört und nicht mit PC Hardware oder Software.

Treiber wurden nie Aktualisiert .

Macht der PC, bzw der AMD Treiber, automatisch.

Und natürlich ist das auch nie in Programmen wie zum Beispiel dem MSI Afterburner aufgefallen ?!

Die meisten wissen nichtmal was ein "Afterburner" mit einem PC zutun hat oder vermuten eine neue Version der Turbotaste.

Klar kannst du auch die Grafikkartensoftware nutzen, Afterburner nutze ich während des Spielens um die Auslastung zu sehen. Spätestens da hätte es ihm auffallen sollen, allein schon beim VRAM.

Die Zahl der Gamer, die Afterburner benutzen, dürfte relativ klein sein. Vermutlich so um 5-10%, eventuell sogar noch weniger.
 
Zuletzt bearbeitet:

wuselsurfer

Kokü-Junkie (m/w)
Die Karten waren schon gut und im Vergleich mit der HD 5870 1GB war die GTX 480 ganz klar die bessere Karte. Mit der längeren Treiberunterstützung ist Nvidia sowieso nichtmehr einholbar gewesen.
Nein.
Die HD 5870 war die bessere Karte.
GeForce GTX 480 oder Radeon HD 5870? Wer unbedingt die schnellste Single-GPU-Grafikkarte sein Eigen nennen möchte und dafür die mehr als einmal erwähnten Nachteile in Kauf nehmen kann, der greift zur GeForce GTX 480. Wem Stromverbrauch und Lautstärke hingegen nicht derart egal sind, der findet in der Radeon HD 5870 einen (außer in DirectX 11) nur geringfügig langsameren Partner mit deutlich niedrigeren Verbrauchs- und Emissionswerten. Die Radeon HD 5870 ist ohne Frage das „rundere“ Produkt.

Die GTX 480 war einfach brutal laut und heiß.
 

Pu244

Lötkolbengott/-göttin
Nein.
Die HD 5870 war die bessere Karte.

Weniger Leistung, weniger VRAM und gut 4 Jahre kürzere Treiberunterstützung. Insgesamt hat die GTX 480 ganz klar gewonnen. Die 2GB Variante der HD 5870 hätte etwa gleichziehen können, allerdings hat AMD dort die Treiberunterstützung viel zu schnell eingestellt. Die GTX 480 war klar die bessere Karte.

Die GTX 480 war einfach brutal laut und heiß.

Die Hitze macht eigentlich, nichts sofern sie keine Ursache für Seriendefekte ist und davon ist mir nichts bekannt (falls du mehr weißt: immer her mit dem Link). Bei der Lautstärke brauchte man wirklich ein gutes Design vom Hersteller oder man hat einfach die GTX 470 genommen, die war immer noch besser, als die HD 5870 1GB.
 

Gurdi

Kokü-Junkie (m/w)
Belustigung und wenn auch nur ein paar Leuten bei der Überprüfung auffällt, dass das Kabel in der falschen Buchse steckt, dann hat es auch was gutes.
Dann macht man daraus einen anständigen Artikel und nicht so einen Quatsch von nem Heini der irgendwas bei Reddit gepostet hat ohne das irgendein Erkenntnisgewinn stattgefunden hat.

Oder man greift das Thema auf und testet das anständig und schafft Fakten was wirklich Sache ist.
 

DarthNomad

Schraubenverwechsler(in)
Reddit: User fragt sich, ob PCGH mit 4 Jahren an Clickbait-Artikeln nicht Glaubwürdigkeit verspielte

Bitte, nehmt euch doch das Motto "Qualität statt Quantität" wieder mehr zu Herzen. Ich gehöre keinesfalls zur "früher war alles besser"-Fraktion, aber es gab mal eine Zeit, da hab ich wissbegierig alles von PCGH aufgesogen.

Wenn ihr sowas in irgendeiner Form für teilenswert haltet, dann nehmt es gleich als Aufhänger, geht dem auf dem Grund, prüft, ob an der Theorie was dran sein konnte, ob es Quatsch ist, ob es sich wie hier schon diskutiert wie bei einem Laptop verhalten könnte oder ob der Leistungsunterschied zwischen integrierter und dedizierter GPU tatsächlich so gering wäre. Aber das hier, das hat null! Mehrwert und ist unterste Schublade... Es blutet mir das Herz, dass ich den Verfall dieser """News"""- Seite miterlebe.
 

wuselsurfer

Kokü-Junkie (m/w)
Weniger Leistung, weniger VRAM und gut 4 Jahre kürzere Treiberunterstützung. Insgesamt hat die GTX 480 ganz klar gewonnen.
Noch mal: NEIN.
Das Ding hat nicht umsonst den weltbekannten Spitznamen "Thermi" oder "Grillforce".

Willst Du den Testern Unobjektivität unterstellen:
https://www.computerbase.de/2010-03/test-nvidia-geforce-gtx-480/29/#abschnitt_fazit ,
https://www.gamestar.de/artikel/nvi...x-11-grafikkarte-wirklich,2313694,seite2.html ?

Die Hitze macht eigentlich, nichts sofern sie keine Ursache für Seriendefekte ist und davon ist mir nichts bekannt (falls du mehr weißt: immer her mit dem Link). Bei der Lautstärke brauchte man wirklich ein gutes Design vom Hersteller oder man hat einfach die GTX 470 genommen, die war immer noch besser, als die HD 5870 1GB.
Die wenigen Kunden, die den Ofen wirklich gekauft haben, haben sie alle zurückgebracht mit der Bitte um Umtausch wegen der unerträglichen Lautstärke und der gnadenlosen Hitzeentwicklung.

Und die meisten haben die HD 5870, HD 5850 oder GTX 460 genommen, wegen des Preises.
 

h_tobi

Lötkolbengott/-göttin
........................
Da AMD seinen Karten teilweise recht schnell (sofern man da bei 6 Jahren davon reden kann) die Treiberunterstützung entzieht, altern Nvidiakarten im Mittel wesentlich besser. Wer seine Karte sehr lange behalten will, ist mit einer Nvidiakarte gut beraten.

really? :hmm:
made my day... :lol::lol::lol:

Ich, als GTX 1080 Besitzer, sage dazu mal nichts, es würde nur negativ auffallen... :schief:
 

Homerclon

Volt-Modder(in)
In anderen Übersetzungen der Geschichte ist die Rede davon, dass er jetzt 80 FPS mehr (die 3 Fache Leistung) hat und mit höheren Details unterwegs ist.

Damit ist klar, dass es die IGP war und PCGH mal wieder etwas schlecht übersetzt hat.

Hier die Version von Gamestar, in der es besser rüberkommt:
Es würde helfen, wenn man auch selbst einen Blick in die Quelle wirft.
Im OP auf reddit, wird mit keinem Wort die FPS erwähnt, die zusätzlichen 80 FPS stehen dann erst in einem späteren Post. Gamestar hat da etwas weiter gelesen, aber falsch übersetzt wurde hier nichts.
 

DKK007

PCGH-Community-Veteran(in)
Ja solche Idioten von Kunden hatten wir schon des öfteren auf der Arbeit sogar einen der erst 15 war und dann kamen sie wieder weil sie aber bei einem Ryzen 7 3800X kein Bild hatten weil anstelle es unten an die Grafikkarte den Monitor anzuschließen haben sie es oben angeschlossen lach

Ist mir aber auf Arbeit auch schon passiert, weil ich nicht damit gerechnet hatte, dass der Ersatz-Büro-Rechner noch ne dedizierte GPU unten drin hat.
 

DarthSlayer

Freizeitschrauber(in)
16GB sind schon sinnvoll in 4K, 10GB zu wenig und 12GB grad so i.O., mir persönlich wärs Wayne, ich kauf sowieso bei erschienen von RTX4000 direkt die 4090 oder so, aber an sich kein schlechter Move von AMD bzw. optimale Ausstattung für das Produkt.
Ist das deine Rangliste xD? Ursprünglich sieht die anders aus, wenn es nach Leistung geht, kann es bei dir nicht direkt rauslesen, deine Sätze muss man aufgrund Satzbau echt manchmal 3x lesen um zu verstehen was du meinst ;).


Jemand der mit solcher Hardware rumläuft hat meist keinen Schimmer von "Wie muss mein System performen"^^. Change my Mind.

Siehe obiger Punkt und manchmal spinnt Afterburner auch bzw. gibt sehr viel weniger Hardwaredetails aus - Offtopic-Info. Ich selber verwende RTSS Standalone mit HWinfo64 und dem RTSS Overlay. Stellt man einmal ein und exportiert sichs fürs Reinstallen von Win beim nächsten Major Upgrade und fertig ;)


Nein. Gott was habt ihr denn genommen xD

Falsch.
Viele Games haben keine Utiliz. mehr, wenn du "Raus-TABst" und auf dem Desktop landest.
Zuverlässige Messungen werden Ingame bzw. im Fullscreen der 3D Anwendung durchgeführt.
Ich zocke nicht in 4k dann brauche ich auch keine 16 GB VRAM und bis ich mir in 4 Jahren auch nicht eine neue Grafikkarte dann hole wird bei mir alles in WQHD gezockt und ich kann auch mit meiner 3080er in 4k zocken wenn ich es wollte denn mein Monitor kann das obwohl es nur ein WQHD ist
 

Firebuster

Freizeitschrauber(in)
da müsste es eine Warnung geben
Ja, ich bin auch der Meinung, dass man vor Hohlköpfen und Idioten gewarnt werden sollte.
Könnten z. B. ein T-Shirt mit entsprechendem Aufdruck tragen.

Das sind dann die "Experten" die in den Hardwareforen aufschlagen oder wieder im Laden stehen weil sie einfach zu faul sind auch nur eine Seite der Handbücher zu lesen die dem Rechner oder der Hardware beiliegen.

Ist ja einfacher zu fragen, andere die Arbeit machen zu lassen und es dann hüfttief in den Allerwertesten geblasen zu bekommen.
 

DarthSlayer

Freizeitschrauber(in)
Ja, ich bin auch der Meinung, dass man vor Hohlköpfen und Idioten gewarnt werden sollte.
Könnten z. B. ein T-Shirt mit entsprechendem Aufdruck tragen.

Das sind dann die "Experten" die in den Hardwareforen aufschlagen oder wieder im Laden stehen weil sie einfach zu faul sind auch nur eine Seite der Handbücher zu lesen die dem Rechner oder der Hardware beiliegen.

Ist ja einfacher zu fragen, andere die Arbeit machen zu lassen und es dann hüfttief in den Allerwertesten geblasen zu bekommen.
Ja und stell dir mal vor wie es ihnen peinlich dann war als sie sogar mit ihrem eigenem Monitor dann in den Laden gekommen sind und wir es in 1 min zum laufen gebracht haben :-)
 

Pu244

Lötkolbengott/-göttin
Noch mal: NEIN.
Das Ding hat nicht umsonst den weltbekannten Spitznamen "Thermi" oder "Grillforce".

Willst Du den Testern Unobjektivität unterstellen:
https://www.computerbase.de/2010-03/test-nvidia-geforce-gtx-480/29/#abschnitt_fazit ,
https://www.gamestar.de/artikel/nvi...x-11-grafikkarte-wirklich,2313694,seite2.html ?

Im Prinzip steht da nicht viel anderes drin. Die große Schwäche war die Lautstärke unter last. Wer damit ein Problem hatte, der mußte auf einen guten Kühler achten oder sich die GTX 470 zulegen.

Davon, dass die GTX 480, mit ihren 1,5GB, später wegzieht, konnten sie damals nur etwas ahnen und nicht wissen, genauso von der Tatsache, dass AMD nach 5 Jahren die Treiberunterstützung einstellt.

Aus heutiger Sicht hat die GTX 480 klar gewonnen.

Die wenigen Kunden, die den Ofen wirklich gekauft haben, haben sie alle zurückgebracht mit der Bitte um Umtausch wegen der unerträglichen Lautstärke und der gnadenlosen Hitzeentwicklung.

Mir ist kein einziger Fall bekannt, indem es dazu gekommen ist. Wer sich eine GTX 480 gekauft hat, der wußte meist, worauf er sich einläßt (wenn die Lautstärke ein Problem war)

Und die meisten haben die HD 5870, HD 5850 oder GTX 460 genommen, wegen des Preises.

Das ist nichts neues, die meisten Karten werden im Bereich von 100-300€ verkauft.

Ich, als GTX 1080 Besitzer, sage dazu mal nichts, es würde nur negativ auffallen... :schief:

Dann sag doch was du auf dem Herzen hast.

Andere rumraten zu lassen, welche Laus dir über die Leber gelaufen ist und den Post mit Smileys vollzuspammen ist wahrlich keine Leistung.

Es würde helfen, wenn man auch selbst einen Blick in die Quelle wirft.
Im OP auf reddit, wird mit keinem Wort die FPS erwähnt, die zusätzlichen 80 FPS stehen dann erst in einem späteren Post. Gamestar hat da etwas weiter gelesen, aber falsch übersetzt wurde hier nichts.

Stimmt, schlecht übersetzt ist falsch, schlecht recherchiert trifft es besser (leider).

Ist ja einfacher zu fragen, andere die Arbeit machen zu lassen und es dann hüfttief in den Allerwertesten geblasen zu bekommen.

Zu blöd nur, dass der Typ niemanden gefragt, sondern den Fehler selbst gefunden hat.
 

RaptorTP

Komplett-PC-Aufrüster(in)
ja gut ... die 1050 Ti zieht auch nicht wirklich die Wurst vom Teller.

kA wer die 1050 Ti als Gaming Karte empfohlen hatte, ich war extrem enttäuscht/geschockt von der Leistung !

Schnell mit 10€ Gewinn verkauft und für 20€ weniger eine GTX 970 im Rechner vom Sohnemann verbaut.

2 Welten.

Will sagen: ich würde es sofort erkennen. Aber von der Leistung her sind beide Lösung nur was für bessere Office Lösungen. Oder der Notfall Gaming PC.
 

DarthSlayer

Freizeitschrauber(in)
ja gut ... die 1050 Ti zieht auch nicht wirklich die Wurst vom Teller.

kA wer die 1050 Ti als Gaming Karte empfohlen hatte, ich war extrem enttäuscht/geschockt von der Leistung !

Schnell mit 10€ Gewinn verkauft und für 20€ weniger eine GTX 970 im Rechner vom Sohnemann verbaut.

2 Welten.

Will sagen: ich würde es sofort erkennen. Aber von der Leistung her sind beide Lösung nur was für bessere Office Lösungen. Oder der Notfall Gaming PC.
Natürlich aber hättest Du gefragt hätte ich dir das gleich gesagt dass eine 970er besser ist als eine 1050Ti. Denn auch wenn diese von der Gen danach kommt ist es nur eine 50er und die 970er, die ich in meinem altem gaming Rechner vorher drin hatte war damals bei dieser Reihe die 2t schnellste Grafikkarte vor der 980er. Selbst heute bekomme ich auf der bei Spielen bis jetzt bis 2017 an die 74 FPS bei WQHD Auflösung raus
 

RaptorTP

Komplett-PC-Aufrüster(in)
Natürlich aber hättest Du gefragt hätte ich dir das gleich gesagt dass eine 970er besser ist als eine 1050Ti.

Alles gut. Dachte die "reicht" xD war aber echt armselig. Selbst für "nur" 2560x1080.

EVGA 1050 Ti für 70€ gekauft
für 80€ verkauft
Gigabyte GTX 970 G1 für 60€ gekauft.

Von daher alles optimal verlaufen.
Ist natürlich schon wieder eine Weile her ;)
 

DarthSlayer

Freizeitschrauber(in)
Alles gut. Dachte die "reicht" xD war aber echt armselig. Selbst für "nur" 2560x1080.

EVGA 1050 Ti für 70€ gekauft
für 80€ verkauft
Gigabyte GTX 970 G1 für 60€ gekauft.

Von daher alles optimal verlaufen.
Ist natürlich schon wieder eine Weile her ;)
Du meinst 1920x1080p ? Denn das ist HD
2560 x1440p ist dann WQHD
 
U

unti20

Guest
Ich hatte noch keine Probleme und bei den Treiber hat AMD auch so manchen Bock geschossen. (wobei sich Nvidia und AMD da nichtmehr viel geben).

Meine GTX 670 läuft noch rund, sieht man von den 2GB VRAM ab.
Mag sein, dass du keine Probleme hattest bisher. Aber bei ein paar Titeln gibt es auf der Kepler Arch. Probleme was die Bildqualität angeht. Das ist Fakt. Schau dir mal ein Video auf Youtube für HZD z.B. an, das ist jetzt eines der Games die ich erst gespielt hatte, gibt sicher noch mehr.
Dass die GTX 670 für vieles in 720p und 1080p Low/High reicht mag sein, kommt auf den Anspruch drauf an^^

VRAM ist einer der wichtigsten Dinge, wenn man seine Karte möglichst lange nutzen möchte.
Natürlich, direkt nach der puren Leistung an sich, aber manche Architekturen altern einfach schneller wie andere.
Schaut man in die Vergangenheit hat es massive Änderungen der Shaderarch. gegeben, dann noch viele DX Änderungen seit DX9 und das schnell aufeinander, seit längerem stagniert es ja, deshalb sind 6 Jahre alte Grakas auch noch fähig zu vielem, sobald man aber zu Karten wie Fermi kommt, wo DX12 nicht mehr geht, wirds langsam eng^^.

Die Nvidiaarchitekturen waren eigentlich alle ganz gut, da habe ich wenig auszusetzen, wenn man Karten, wie die erste Titan betrachtet. Sie haben eben sehr oft am VRAM gegeizt (GTX670/680, GTX 780 (Ti), Turing und jetzt Ampere, mit Ausnahme der RTX 3090 und 3060).
Ach was, 6000GTX, 8000GTX, GTX200, GTX500, GTX 600 und GTX900/1000 waren gut.
Die meisten waren Effizient unterwegs und wirklich ein guter Wurf, den Rest kannst du direkt in die Tonne kloppen.
GTX400 war ein Heizlüfter, GTX700 war Kepler auf Steroiden mit ner Titan ganz oben in der Reihe, die war gut, sparsam nicht aber mei... und über RTX2000 und 3000 muss ich nichts sagen, RTX2000 war "OK" mit neuen RTX Features und ohne Rasterizing Leistungsplus (25% zur 1080Ti bei der 2080Ti - Yaayyy....)... und RTX3000 ist gut, bis auf die miese Performance per Watt, die vielen HDMI2.1 Bugs, anfänglichen Probleme mit ausfallenden Karten und was weiß ich sonst noch... man kann sich auch selber belügen, ich hab zwar ne RTX3090 und ich mag die Karte, aber ist es das "rundeste" Superprodukt?! Sure not, am Ende ist es die erste Karte seit einem Jahrzehnt für die ich explizit wieder ne Wakü wollte (gut mir ist Stromverbrauch egal) weil die Temps doch jenseits von gut und Böse waren bei max. PL.

Abwarten. Möglich, dass Raytracing sich breit durchsetzt und dann kommt man mit diesen Karten doch wesentlich weiter. DLSS haben sie auch und FFX unterstützen sie ja sowieso.
Ach was, der Fortschritt in der RTX Performance wird mit jeder Gen um einen Faktor >1-2 zunehmen, DLSS mag sein, aber RTX ist mit RTX4000 schon direkt outdated was die Performance alter Karten angeht und das wird sich weiterziehen.
AMDs Technik heißt FSR (Fidelity FX Super Resolution), FFX ist die komplette "Suite".
Läuft natürlich, aber ist eben nur ein etwas "besserer" Upscaler, auch wenn ich bei Ultra Quality in Godfall keinen Unterschied - zumindest nicht heftig - gesehen habe.

Die GTX 480 war einfach brutal laut und heiß.
Ich hatte und habe diese Karte noch, das Ding ist UNERTRÄGLICH LAUT, und kann im Winter als Heizlüfter dienen, wenn ich damals nicht mit der HD4870 so Probleme gehabt hätte, hätte ich evtl. die HD5870 genommen...
Das Ding war einfach nicht geil, erst der Refresh mit der GTX580 war endlich die erhoffte "Erlösung". Für gefühlt 1-5% mehr Performance rechtfertigt es nicht so viel mehr W...

Dann macht man daraus einen anständigen Artikel und nicht so einen Quatsch von nem Heini der irgendwas bei Reddit gepostet hat ohne das irgendein Erkenntnisgewinn stattgefunden hat.

Oder man greift das Thema auf und testet das anständig und schafft Fakten was wirklich Sache ist.
Das wäre ja Arbeit gewesen, der Kaffee und 9Gag war wichtiger :ugly:

really? :hmm:
made my day... :lol::lol::lol:

Ich, als GTX 1080 Besitzer, sage dazu mal nichts, es würde nur negativ auffallen... :schief:
Was hat die 1080 damit zu tun? Die läuft noch anstandslos, beleuchte mich.

Ich zocke nicht in 4k dann brauche ich auch keine 16 GB VRAM und bis ich mir in 4 Jahren auch nicht eine neue Grafikkarte dann hole wird bei mir alles in WQHD gezockt und ich kann auch mit meiner 3080er in 4k zocken wenn ich es wollte denn mein Monitor kann das obwohl es nur ein WQHD ist
Natürlich reicht die für 1440p. 4K wird sich auf 4 Jahre in der Zukunft zeigen, aber ich vermute du holst dir eh die nächste Gen...
Und nein, der Monitor deiner Signatur kann Native 1440p... wenn du willst kannst du DSR auf 2160p machen, das kann aber jeder... das kann dein Monitor nicht...

Das ist nichts neues, die meisten Karten werden im Bereich von 100-300€ verkauft.
Früher^^. Heute kriegt man dafür ne Handvoll Shader einer Mitteklasse GPU xD
 

Pu244

Lötkolbengott/-göttin
Dann glaube das mal in Deiner realitätsfernen Welt.

Selbst in deinen Tests sagen sie, dass die Karte stärker ist. Dann sind da noch der größere VRAM und die wesentlich länger Treiberunterstützung dazugekommen.

Das Lärmproblem ist eben subjektiv. (auch wenn sich Nvidia mit dem Referenzkühler keinen Gefallen getan hat)

Natürlich, direkt nach der puren Leistung an sich, aber manche Architekturen altern einfach schneller wie andere.
Schaut man in die Vergangenheit hat es massive Änderungen der Shaderarch. gegeben, dann noch viele DX Änderungen seit DX9 und das schnell aufeinander, seit längerem stagniert es ja, deshalb sind 6 Jahre alte Grakas auch noch fähig zu vielem, sobald man aber zu Karten wie Fermi kommt, wo DX12 nicht mehr geht, wirds langsam eng^^.

Bei DX 12 ist eben das Problem, dass jede DX 11 Karte auch irgendwie eine DX 12 Karte ist und die DX12 Karten oft nicht voll DX12 kompatibel sind (die Skylake IGPs waren ja die ersten voll kompatible). Da hat MS mit seinem Featurelevel einen echten Bock geschossen, neben der dämlichen Idee das ganze nur für das neueste OS anzubieten.

In letzter Zeit nimmt die Sache Fahrt auf und soweit ich weiß betrifft das vorallem die ersten beiden Titanen und die GTX 780(Ti), da die die nötige Geschwindigkeit und VRAM haben, aber nicht das FL.

Ach was, der Fortschritt in der RTX Performance wird mit jeder Gen um einen Faktor >1-2 zunehmen, DLSS mag sein, aber RTX ist mit RTX4000 schon direkt outdated was die Performance alter Karten angeht und das wird sich weiterziehen.

Schwer zu sagen. Bei AMD vermutlich, sonst haben sie ein echtes Problem. Bei Nvidia gab es bei der RTX 3000 allerdings keine solch überproportionale Steigerung. Mal schauen, was die Zukunft bringt, heute geht es ja nur im Schneckentempo voran (vom Faktor 1000 in einer Dekade kann man ja nur träumen.

Früher^^. Heute kriegt man dafür ne Handvoll Shader einer Mitteklasse GPU xD

Die meisten Leute sind immernoch in dieser Preisregion unterwegs.
 

Daggy82

PC-Selbstbauer(in)
Äh ja klar , der Hardware Manager wurde nie benutzt ?!

Treiber wurden nie Aktualisiert .

Und natürlich ist das auch nie in Programmen wie zum Beispiel dem MSI Afterburner aufgefallen ?!

:schief:
Du wirst lachen, es gibt genügend solcher Leute die nur anschließen und loslegen und sich um nichts kümmern.
Ich hatte z.B. mal einen Kollegen der hat über zwei Jahre auf einem 27 Zoll Monitor mit einem extrem großen schwarzen Rand gespielt weil er das Bild im Treiber nicht auf die Größe des Monitors angepasst hat, der Dachte auch die ganze Zeit das muss so sein, der hatte also einen 27 Zoll und hat mit dem Bild von einem 24 Zoll gespielt quasi.
Ich hab dem das dann mal eingestellt als ich das mal gesehen habe und der war total erstaunt und erfreut wie groß das Bild auf dem Monitor doch war und wie wenig schwarzer Rand nur noch zu sehen war. :lol:
ja gut ... die 1050 Ti zieht auch nicht wirklich die Wurst vom Teller.

kA wer die 1050 Ti als Gaming Karte empfohlen hatte, ich war extrem enttäuscht/geschockt von der Leistung !

Schnell mit 10€ Gewinn verkauft und für 20€ weniger eine GTX 970 im Rechner vom Sohnemann verbaut.

2 Welten.

Will sagen: ich würde es sofort erkennen. Aber von der Leistung her sind beide Lösung nur was für bessere Office Lösungen. Oder der Notfall Gaming PC.
Gefühlt ein Drittel in in meinem Bekanntenkreis und unserer Gaming Community spielt mit einer 1050ti in ihren Rechnern und die spielen alles Querbeet und selbst die neuesten Titel.
Es ist durchaus eine Gaming GPU und vor vier Jahren erst Recht.
Vielleicht ab und an mal über den Tellerrand eines Hardwareforums schauen.
Als ich meine RTX 2080ti verkauft habe und übergangsweise die RX 580 eingebaut habe hatte ich auch erhebliche Bedenken ob ich noch vernünftig zocken kann, aber die "kleine" RX 580 erstaunt mich jedes mal wieder wie gut die immer noch läuft und es gibt kein spiel was ich mit ihr nicht gut - sehr gut spielen kann, natürlich auch aufgrund ihrer 8GB.
 
Zuletzt bearbeitet:

yingtao

Software-Overclocker(in)
In anderen Übersetzungen der Geschichte ist die Rede davon, dass er jetzt 80 FPS mehr (die 3 Fache Leistung) hat und mit höheren Details unterwegs ist.

Damit ist klar, dass es die IGP war und PCGH mal wieder etwas schlecht übersetzt hat.

Hier die Version von Gamestar, in der es besser rüberkommt:



:klatsch:

Klar, ist ja auch nur die 4-5 fache Leistung und zusätzlich 4GB VRAM, den Unterschied merkt doch keiner.

BTW: wärst du bereit die Graka mit mir zu tauschen? Da ist der Unterschied etwa genauso groß und ich würde sogar einen Hunni drauflegen. Was sagst du?

Du verwechselst da jetzt aber verschiedene Posts. Der Post um den es hier bei der PCGH News geht wird die Frage gestellt ob der User seinen Monitor an den falschen Port angesteckt hat. Im Update berichtet er das er keinen Leistungsunterschied feststellen kann nachdem er den Monitor direkt an die GPU gesteckt hat.

Was die Gamestar schreibt ist einfach nur das eine 1050ti 2-3mal so schnell ist wie die Vega iGPU. Da kommt dann halt die Frage auf warum der Reddit User nach dem Umstecken keinen Leistungsunterschied feststellen kann (Update kam erst nach Veröffentlichung des Gamestar Artikels).

Wovon du noch schreibst bezieht sich dann aber auf den anderen Reddit Post der den User aus der News nachdenklich gemacht hat. In diesem anderen Fall hat die Mutter vom PC alle Kabel ab gemacht und der Sohn hat die wieder angesteckt und hatte dann Leistungseinbußen und ist z.B. von 300FPS auf 70FPS gefallen und die Lösung in dem Fall war dass das Kabel am Mainboard angeschlossen war und nicht der GPU.

Was mich bei der News stört (sowohl bei der Version der PCGH als auch der Gamestar) ist das die Sache nicht einfach mal getestet wurde. Beide Seiten haben eine Hardwareabteilung mit Testrig usw. Da könnte man doch problemlos das Ganze mal mit einem Intel und einem AMD System nachtesten um zu gucken ob das GPU Signal durchgeschliffen wird oder nicht.

Ich weiß das damals bei meinem Intel 3770k über das Mainboard nur das iGPU Signal ausgegeben wurde. Bei moderneren Systemen und besonders bei AMD weiß ich nicht wie sich das verhält. Es hat sich ja sehr viel getan über die Jahre. Bei Laptops musste man früher z.B. auch per Hand umschalten welche GPU für Desktop und für Anwendungen genutzt wird und mittlerweile funktioniert das automatisch.
 

RaptorTP

Komplett-PC-Aufrüster(in)
@Daggy82

Eine RX 580 hat wesentlich mehr Leistung als eine 1050 Ti.
Dein Vergleich hinkt leider ;)

Die GPU ist quasi auf dem gleichen Leistungsniveau wie eine GTX 970

xD

Du siehst: wir haben alles richtig gemacht.
Ich eben noch mit dem Umstand der mir einen kleinen Bonus eingebracht hat.

Mal im ernst: Ich wollte damit nur zum Ausdruck bringen, dass ich ohne nach den Kabeln hinten am Rechner zu schauen oder Treiber/SW zu checken evtl. dazu geneigt wäre zu sagen: Ajaaa gut, ist halt ne 1050 Ti. (obwohl eben die APU läuft)

Hätte aber eigentlich bei den Treibern auffallen müssen ;)

Natürlich kann man auch damit zocken. Noch bin ich auf PCMR Welle unterwegs xD das wird aber wohl auch weniger wenn ich endlich die Retro Ecke im Keller fertig habe (Herbst hoffentlich)
 

RaptorTP

Komplett-PC-Aufrüster(in)
@DarthSlayer

Der Monitor kostet kaum mehr als ein FullHD 24" und ist eigentlich nur ein Überbleibsel meines alten Systems. Deswegen hat Sohn jetzt diesen Bildschirm.

Upgrade ging dann wie folgt:

i5 + 8GB + HD 7850
i5 + 12GB + GTX 1050 Ti
Ryzen 5 1600 AF + 16GB + GTX 970

Weißt nicht was an 21:9 so besonders ist. Will es nicht mehr missen, aber deswegen muss ich ja keinem Benz fahren xD


Ich hab noch mehr Rechner zu versorgen. Da kann ich nicht immer Vollgas gehen. Zumal Sohn es nicht merken würde da der Bildschirm 60Hz hat und das System auf 58fps gelockt ist. Reicht voll und ganz. Selbst für Wreckfest.

HTPC mit 1080 Ti
Frau PC mit RX 580
Keller PC mit HD 7850
Retro PC mit HD 3870
 

DarthSlayer

Freizeitschrauber(in)
@DarthSlayer

Der Monitor kostet kaum mehr als ein FullHD 24" und ist eigentlich nur ein Überbleibsel meines alten Systems. Deswegen hat Sohn jetzt diesen Bildschirm.

Upgrade ging dann wie folgt:

i5 + 8GB + HD 7850
i5 + 12GB + GTX 1050 Ti
Ryzen 5 1600 AF + 16GB + GTX 970

Weißt nicht was an 21:9 so besonders ist. Will es nicht mehr missen, aber deswegen muss ich ja keinem Benz fahren xD


Ich hab noch mehr Rechner zu versorgen. Da kann ich nicht immer Vollgas gehen. Zumal Sohn es nicht merken würde da der Bildschirm 60Hz hat und das System auf 58fps gelockt ist. Reicht voll und ganz. Selbst für Wreckfest.

HTPC mit 1080 Ti
Frau PC mit RX 580
Keller PC mit HD 7850
Retro PC mit HD 3870
Ich habe die Monitore lieber 16:9 aber dafür groß. Deswegen ein 32 Zoll WQHD den ich habe und zwar was besonderes und nicht 0815

Was ich nicht verstehe ist. Deine Frau hat eine RX 580er drin ? Wieso nicht Du ? Die ist paar % schneller als die 970er
 
Zuletzt bearbeitet:

RaptorTP

Komplett-PC-Aufrüster(in)
Einmal 21:9 immer 21:9 und auch nicht curved ;)

Entspricht auch mehr dem natürlichen Sehfeld.
Deine 1440 in Höhe hab ich auch ;)
 

XXTREME

Lötkolbengott/-göttin
Zuletzt bearbeitet:

Cohen

Freizeitschrauber(in)
Einmal 21:9 immer 21:9 und auch nicht curved ;)

Entspricht auch mehr dem natürlichen Sehfeld.
Deine 1440 in Höhe hab ich auch ;)
Seit wann entspricht 21:9 mehr dem natürlichen Sehfeld?

"Bei einem Erwachsenen beträgt die horizontale Ausdehnung des binokularen Gesichtsfelds etwa 214° (±107° auf jeder Seite) die vertikale zirka 60°–70° nach oben und 70°–80° nach unten."

horizontal 214°, vertikal mindestens 130°... das ergäbe einen Aspekt von 1,65:1... ziemlich nah an 16:9- und 16:10-Displays, ziemlich nah am "goldenen Schnitt".

Aber das Gesichtsfeld sagt ja auch noch nicht so viel über den Sichtbereich aus, in dem man alles scharf sieht.

Da kann jeder für sich einen kleinen Selbstversuch machen, dauert keine Minute:

Ganz nah an das Display ran, so dass man die Ränder nicht mehr sieht.
Dann langsam den Kopf zurückziehen. Welche Ränder kann man zuerst gleichzeitig klar erkennen?

Bei meinem alten 4:3-Fernseher waren zuerst der linke und rechte Rand scharf zu sehen, der obere und untere Rand erst bei größerer Entfernung.

Bei meinem 16:9-Fernseher undbei meinen 16:9- und 16:10-Monitoren waren alle 4 Ränder ungefähr gleichzeitig scharf zu sehen.

Bei Cinemascope-Filmen (2,35:1) auf dem Fernseher bzw. der Projektor-Leinwand und bei Ultrawidescreen-Monitoren sehe ich viel eher den oberen und unteren Rand scharf; die Ränder an den Seiten erst bei größerer Entfernung.
 
Oben Unten