Reddit: User fragt sich, ob er vier Jahre ohne Desktop-Grafikkarte spielte

Komme erst mal auch mit einem 3800 € Rechner ohne Monitor um die Ecke dann kannst Du mitreden
Oh, sind wir schon auf diesem Niveau!?!
Jo, dein kleiner Kindergartenrechner kostet ungefähr 1/3 meiner Mühle, allein meine Wakü kostet 70% von deinem :lol:
Und, merkst was?
Ich bin nicht der Obergeilste und binde das jedem auf die Nase.
Man merkt einfach, dass du absolut 0 Ahnung hast von dem was du redest (du schreibst total unschlüssiges Zeug, deine Rechtschreibung ist auch absolut unterstes Niveau und ich muss es wissen, mein Satzbau ist auch manchmal zu lang und unverständlich!).
Du redest hier von geiler Monitor, kann 4K, obwohl er WQHD gerated ist, dann noch komische Graka Benchmarks, die Null Sinn ergeben and so on...
Mei, was will ich dazu noch sagen, jeder kann sich mal ins Bein schießen, aber so oft hintereinander?
Und dann auch noch unhöflich zu anderen Forenusern... normalerweise sollte es mir ja egal sein, aber so ein Verhalten ist hier nicht zu tolerieren!....
 
Oh, sind wir schon auf diesem Niveau!?!
Jo, dein kleiner Kindergartenrechner kostet ungefähr 1/3 meiner Mühle, allein meine Wakü kostet 70% von deinem :lol:
Und, merkst was?
Ich bin nicht der Obergeilste und binde das jedem auf die Nase.
Man merkt einfach, dass du absolut 0 Ahnung hast von dem was du redest (du schreibst total unschlüssiges Zeug, deine Rechtschreibung ist auch absolut unterstes Niveau und ich muss es wissen, mein Satzbau ist auch manchmal zu lang und unverständlich!).
Du redest hier von geiler Monitor, kann 4K, obwohl er WQHD gerated ist, dann noch komische Graka Benchmarks, die Null Sinn ergeben and so on...
Mei, was will ich dazu noch sagen, jeder kann sich mal ins Bein schießen, aber so oft hintereinander?
Und dann auch noch unhöflich zu anderen Forenusern... normalerweise sollte es mir ja egal sein, aber so ein Verhalten ist hier nicht zu tolerieren!....
Ich habe damit hier nicht gestern damit angefangen mit ich zu veräppeln mit Sprüche wo hier durch PCGH sogar als Fazit nachgewiesen wurde und nicht nur durch PASSMARK dass eine 3080er Ti schneller ist als eine 6900XT mit Sprüchen wie "und wieso hast du dann so eine schrottige Grafikkarte noch drin" und dabei habe ich eine 3080er
 
@Pu244

Man merkt halt sehr deutlich das du den 2400G noch nie hattest... ;)
Ich hatte ihn jedenfalls über ein Jahr lang und hab ihn auch gegen meine damalige GTX 580 antreten lassen....
So viel dazu..

Und Nvidia Treiber sind bei aktuellen Grafikkarten immer am besten, weil der Breite Support einfach besser ist...
Bei der Langlebigkeit hat AMD aber deutlich die Nase vorne... Treiber Support auf Intel Seite... öhm ja mal schauen, sieht bisher nicht sehr rosig aus! :lol:

P.s AMD ist auf dem Grafikniveau der APUs seit Markteinführungsdatum 02/12/2018.

Das Intel jetzt mit der Iris Pro aufgeholt hat in 2021 wurde ja auch mal Zeit, frag mich nur was passiert wenn die Vega Chips in den CPUs ersetzt werden, was wohl auch nicht mehr so lange braucht... also Intel hängt nach wie vor hinterher was APU GPUs angeht.

Mehr brauch ich dazu nicht sagen, macht eh keinen Sinn an dieser Stelle...
 
Man merkt halt sehr deutlich das du den 2400G noch nie hattest... ;)

Und du keine GTX 670. Die Benchmarks und Spiele sprechen einfach eine völlig andere Sprache. Mit den besten AMD IGPs ist man in Anno 1800 bestenfalls in Full HD@ niedrig unterwegs, mit der Intel UHD 630 in 720p. Ich zocke das Spiel in 1440p@ Mittel, das sagt eigentlich alles aus.

Du kannst dir den Mist schönreden, wie du willst, es ändert nichts an der Realität. Wenn man den VRAM auf gleichem Leistungsniveau noch vergrößert, dann sieht es für die IGPs noch übler aus. Dann fast läuft alles, während die IGPs passen müssen, wenn es anspruchsvoller wird.

Und Nvidia Treiber sind bei aktuellen Grafikkarten immer am besten, weil der Breite Support einfach besser ist...

Da hätte ich gerne ein Quelle und bitte nicht den alten "Fine Wine" Mist, den habe ich schon widerlegt. Ähnliche Karten sind auch weiterhin ähnlich schnell. Nvidia unterstützt seine alten GPU auch weiterhin, bis die Treiber auslaufen.

Bei der Langlebigkeit hat AMD aber deutlich die Nase vorne...

Ist das jetzt ein blöder Scherz oder hast du es einfach nicht mitbekommen?

AMD hat noch zwei Generationen mehr, als Nvidia, außer Dienst gestellt. Wer an einer langen Treiberunterstützung und damit Lebensdauer interessiert ist, der sollte sich eine Nvidiakarte holen.

Ach ja: AMD hat auch APUs außer Dienst gestellt, die 2017 vorgestellt wurden.

Treiber Support auf Intel Seite... öhm ja mal schauen, sieht bisher nicht sehr rosig aus! :lol:

Ich würde sagen er hat sich verbessert und ist jetzt ausreichend, aber gut ist etwas anderes. Da wird sich Intel noch anstrengen müssen.

P.s AMD ist auf dem Grafikniveau der APUs seit Markteinführungsdatum 02/12/2018.

Soweit ich weiß haben sie Fortschritte gemacht, aber eine neue Architektur würde den APUs ganz gut tun.

Das Intel jetzt mit der Iris Pro aufgeholt hat in 2021 wurde ja auch mal Zeit, frag mich nur was passiert wenn die Vega Chips in den CPUs ersetzt werden, was wohl auch nicht mehr so lange braucht... also Intel hängt nach wie vor hinterher was APU GPUs angeht.

Intel ist spätestens bei Broadwell mit AMD gleichgezogen. Das Problem ist, dass die Intellösungen mit dem L4 Cache deutlich aufwändiger sind, als die einfachen AMD Chips.

Mehr brauch ich dazu nicht sagen, macht eh keinen Sinn an dieser Stelle...

Sehe ich auch so, du lebst nunmal in deiner Alternativen Realität, in der AMD APUs ausgewachsene GTX Grakas schlagen können, obwohl es nichtmal für die schwache GT 1030 reicht. Du kannst dir deine Realität zurechtbiegen, wie du willst, meine GTX 670 ist dennoch schneller und besser, bis ihr die Treiberunterstützung mal einen Strich durch die Rechnung macht.
 
Bei welcher Grafikkarte hat man das angewandt?

Es gab dann doch nur Kombikarten mit 2D- und 3D-Teil in einem Chip und einer Buchse.
Bei den ersten Voodoos mußte man doch sogar das Durchschleifkabel von Karte zu Karte befestigen.

Die Voodoo Rush / Banshee hatte dann die Einkartenlösung.
ich bin mir fast sicher, dass das eigentlich bei allen GPUs ginge, geht mehr ums MoBo. Ich müsste es jetzt extra probieren, was meines sagt, wenn ich den Monitor sm Mobo anhänge. Die iGPU deaktiviert, sollte das Signal durchgeschliffen werden. Kanns aber jetzt nicht 100%ig sagen
 
Die iGPU deaktiviert, sollte das Signal durchgeschliffen werden. Kanns aber jetzt nicht 100%ig sagen
Und dann kommt das Signal von der 3D-Karte auf der IGPU-Buchse vom Board an?

Ich hab es zwar ein paar mal versucht, aber geklappt hat das nie in der Werkstatt.

Edit:

Es könnte auf zwei Wegen gehen:

GPU auf IGPU-Ausgang klein.jpg
 
Zuletzt bearbeitet:
Zurück