Geforce GTX 1650: Modelle von Asus, Gigabyte, MSI und Zotac gesichtet

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce GTX 1650: Modelle von Asus, Gigabyte, MSI und Zotac gesichtet

Kurz vor dem vermuteten Launch-Termin der GTX 1650 sind Bilder und Eckdaten einiger Custom-Modelle aufgetaucht. Demnach soll die GTX 1650 von den jeweiligen Herstellern in mehreren Versionen aufgelegt werden. Die meisten gezeigten Grafikkarten setzen auf zwei Lüfter, es gibt aber auch kürzere Modelle mit nur einem Lüfter.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Geforce GTX 1650: Modelle von Asus, Gigabyte, MSI und Zotac gesichtet
 
Hier geht es bei Nvidia nicht mehr um Konkurrenz, sondern einfach nur noch um ein Gegenangebot.

Die 590 konkurriert jetzt schon direkt mit der 1660ti, und bietet mehr VRAM, und oft einen deutlich besseren Preis an.

Bei der 1650 wird das noch viel extremer werden.
Nicht nur das Polaris doppelt so viel VRAM haben wird.
Auch im Preis und in der Leistung ist jetzt schon Polaris 10 deutlich besser.
Die UVP für die 1650 ist ja jetzt schon höher als Polaris 10 verkauft wird....^^

D.h. im wichtigsten Preisbereich überhaupt, denn über 300€ gehen die Verkäufe proportional zum Verkaufspreis zurück, siehe Mindfactory, konkurriert Nvidias Turing mit AMDs alten Polaris 10, und hat gegen AMDs Navi 10 überhaupt keine Chance mehr.

Die Leute wolle nicht hauptsächlich mehr Effizienz, sondern MEHR Leistung.
Und genau hier versagt Turing in diesem wichtigen Preisbereich absolut.

Langsam verstehe ich den Markt nicht mehr.
Nvidia hat den riesigen Vorsprung den sie hatten, in der Mittel-, und Unterklasse komplett an AMD abgegeben, ähnlich wie es Intel aktuell bei den CPUs macht.
Das ist einfach nur noch strange......
 
Zuletzt bearbeitet:
Die Gainward wird mit Sicherheit, den halben VRAM von AMDs Polaris 10 haben, teurer sein, und weniger Leistung als AMDs Polaris 10 haben.

Was soll der Post jetzt bewirken?
 
Die Gainward wird mit Sicherheit, den halben VRAM von AMDs Polaris 10 haben, teurer sein, und weniger Leistung als AMDs Polaris 10 haben.

Was soll der Post jetzt bewirken?

Ich brauch nicht mehr Vermuten Ich weiß es ;-)

(Außerdem passt mein Post immer noch deutlich besser zu dem Thema als Dein gehate
zu Teuer zu langsam zu wenig Speicher. )
 
Zuletzt bearbeitet:
VRAM-Diskussionen sind obsolet, denn schon CB hat vor über 2 Jahren fest gestellt, dass eine 4GB Polaris 10 GPU für einige Spiele nicht mehr ausreicht.
Ich mache mir noch nicht einem mehr die Mühe die News zu verlinken. Das habe ich hier oft genug gemacht in den letzten Jahren.....:(

Unterm Strich ist Turing die mit Abstand schlechteste Generation von Nvidia seit Fermi.....
Und selbst Fermi war nach 2 Jahren erfolgreicher als Turing es jemals sein wird......

Daraus ergeben sich ganz neue Fragen.

Z.B., warum gibt Nvidia, aber auch Intel, freiwillig ihren einst riesigen Vorsprung auf....?
 
VRAM-Diskussionen sind obsolet, denn schon CB hat vor über 2 Jahren fest gestellt, dass eine 4GB Polaris 10 GPU für einige Spiele nicht mehr ausreicht.
Ich mache mir noch nicht einem mehr die Mühe die News zu verlinken. Das habe ich hier oft genug gemacht in den letzten Jahren.....:(

Unterm Strich ist Turing die mit Abstand schlechteste Generation von Nvidia seit Fermi.....
Und selbst Fermi war nach 2 Jahren erfolgreicher als Turing es jemals sein wird......

Daraus ergeben sich ganz neue Fragen.

Z.B., warum gibt Nvidia, aber auch Intel, freiwillig ihren einst riesigen Vorsprung auf....?

Und schon wieder direkt an der NEWS vorbei und weiter mit dem GEHATE.

WOW !

Hast du noch etwas konstruktives zu schreiben, ansonsten ist mir nicht bewusst was deine Posts hier sollen ?
 
Nein, dass ist rein ontopic.
Wo war ich hierbei offtopic gewesen, wenn ich rein zur 1650 schreibe, und nur mit der einzigsten Konkurrenz AMD vergleiche....?

Es ist doch nicht meine Schuld das es kein 3dfx mehr gibt....
Das wurde von Nvidia geschwächt, gefressen, ausgeschlachtet, und einfach vernichtet....

Soll das hier reine Nvidia-Werbung werden...? ^^
Da gibt es doch "User" hier im Forum die das viel besser können als ich.....
 
VRAM-Diskussionen sind obsolet, denn schon CB hat vor über 2 Jahren fest gestellt, dass eine 4GB Polaris 10 GPU für einige Spiele nicht mehr ausreicht.
Ich mache mir noch nicht einem mehr die Mühe die News zu verlinken. Das habe ich hier oft genug gemacht in den letzten Jahren.....:(

Unterm Strich ist Turing die mit Abstand schlechteste Generation von Nvidia seit Fermi.....
Und selbst Fermi war nach 2 Jahren erfolgreicher als Turing es jemals sein wird......

Daraus ergeben sich ganz neue Fragen.

Z.B., warum gibt Nvidia, aber auch Intel, freiwillig ihren einst riesigen Vorsprung auf....?

Vram knapp zu halten ist auch ein probates Mittel um die Lebenszeit einer GPU deutlich zu verkürzen. ;-) Nvidia kennt schließlich immer Mittel und Wege.

Ich kenne alle Argumente für und gegen mehr oder weniger VRAM.
Ich bis es so furchtbar müde mich dazu auf eine weitere Diskussion ein zu lassen....

Muss das wirklich sein...? :(

Wer die Wahl hat, hat die Qual! ;-)

Die Gainward wird mit Sicherheit, den halben VRAM von AMDs Polaris 10 haben, teurer sein, und weniger Leistung als AMDs Polaris 10 haben.

Inklusive einen Free Sync Monitor, der deutlich günstiger zu haben ist, als ein G-Sync Monitor.
 
Zuletzt bearbeitet:
Ich kenne alle Argumente für und gegen, mehr oder weniger VRAM.
Ich bis es so furchtbar müde mich dazu auf eine weitere Diskussion ein zu lassen....

Muss das wirklich sein...? :(

Fakt ist das Turing mit dem "uralten" Polaris 10 ab der 1660ti konkurriert....
Damit habe ich selbst überhaupt nichts zu tuen, sondern Nvidia und AMD....

Ich kann selbst nur die wirklich extremen Auswüchse des Marktes dahinter beschreiben.
Aber schon seit dem Mining-Wahnsinn ist alles aus dem Gleichgewicht geraten.......
 
Beim Kampf Free Sync vs. G-Sync hat Free Sync eindeutig gewonnen....
Nvidia selbst schwenkt jetzt auf Free-Sync um....

Es gibt immer weniger Panels mit G-Sync...., und immer mehr Unterstützung von Nvidia mit Free Sync.

Abgesehen davon halte ich überhaupt nichts von der Technologie, da die Technik kaum Mehrwert liefert, und bei hohen Bildwiederholraten fast Null ist.
Aber selbst im Bereich von 60Hz, wo die Technologie ihre Vorteile voll ausspielen kann, ist der der Unterschied ohne minimalistisch....:(
 
Beim Kampf Free Sync vs. G-Sync hat Free Sync eindeutig gewonnen....
Nvidia selbst schwenkt jetzt auf Free-Sync um....

Es gibt immer weniger Panels mit G-Sync...., und immer mehr Unterstützung von Nvidia mit Free Sync.

Abgesehen davon halte ich überhaupt nichts von der Technologie, da die Technik kaum Mehrwert liefert, und bei hohen Bildwiederholraten fast Null ist.
Aber selbst im Bereich von 60Hz, wo die Technologie ihre Vorteile voll ausspielen kann, ist der der Unterschied ohne minimalistisch....:(

Das Bild wirkt deutlich ruhiger und geschmeidiger. Gerade wenn die 60fps mal nicht erreicht werden. Vsync versucht nur entweder die 60fps zu halten oder gleich auf 30fps umzuschwenken. Für mich ist es auf jeden Fall ein Mehrwert Freesync zu haben.
 
Danke , aber die Vor-, und Nachteile von Free-, und G-Sync kenne ich genau. ^^

Ich bleibe bei meinem Fazit, dass die Unterschiede ohne minimalistisch sind, und es mit Sicherheit nicht wert ist hier ständig thematisiert zu werden.....

Der Sprung auf Full HD war groß, auch der von Full HD auf 4k.
Dann kommen wir aber auch an einer Grenze an, wo es keinen Sinn mehr macht die Auflösung zu vergrößern.
Raytracing ist ganz nett, aktuell aber auch nur minimalistisch umgesetzt....

Da war ich zu dem Zeitpunkt jetzt, deutlich beeindruckter mit Full HD, als RT es überhaupt kann....
 
Zuletzt bearbeitet:
Ich weiß auch nicht, was Nvidia bei den Turing Non-RTX Karten bzw. Turing und VRAM allgemein geritten hat. Alle Karten haben durch die Bank weg zu wenig VRAM.
Die kommende GTX 1650 mag sicherlich untere Mittelklasse sein. Aber trotzdem ist sie in die Leistungsklasse einer derzeitigen GTX 1050 Ti einzuordnen und dürfte auch im unteren zweistelligen Bereich schneller sein als die 1050 Ti, welche ja ebenfalls 4 GB VRAM hat. Aber auch die 1050 Ti hat schon in FullHD mit dem knappen VRAM zu kämpfen. Sehe ich selber bei mir, wenn ich POE zocke. Also grafisch nicht ein wirklich sonderlich anspruchsvolles Game. Und trotz leicht nach Links gezogener Regler laufen die 4 GB VRAM der 1050 Ti desöfteren bis zum Anschlag voll in FullHD.

Und nun kommt die GTX 1650 daher, ist etwas schneller als eine 1050 Ti und wiederum nur 4 GB VRAM haben und damit unter den gleichen Mängeln leiden. Und dann dazu noch der angedachte Preis, den Nvidia gerne haben möchte. Nee, aber damit ist die Karte trotz der nur 75 Watt TDP nur überflüssig. Da ist jedwege RX 570 mit 8 GB VRAM trotz der deutlich höheren Leistungsaufnahme das bessere Angebot.

Hätte Nvidia der GTX 1650 6 GB, der GTX 1660 sowie der GTX 1660 Ti jeweils 8 GB VRAM mit auf den Weg gegeben, sehe das ganz anders aus.
Aber so ist das einfach nur bäh ....
 
Wäre echt mal nett zu sehen was mittlerweile eine (fiktive) PSVita 2 leisten würde.
War echt ein Fan von den Handhelds.
 
Ich brauch nicht mehr Vermuten Ich weiß es ;-)

(Außerdem passt mein Post immer noch deutlich besser zu dem Thema als Dein gehate
zu Teuer zu langsam zu wenig Speicher. )

@ 3dfx01

Also ich hab absolut KEIN Problem damit, wenn jemand sagt / schreibt : Er will hohe Leistung (mehr als Vega) und ist gewillt dafür auch mehr Geld auszugeben.
Aber im speziellen gerade bei DER GTX 1650, teurer als die RX 580 (ab 169 €), halb soviel Speicher und Bandbreite (128 Bit statt 256 Bit) und somit vermutlich auch langsamer !!
Und den "Schmarr´n" kaufen dann wirklich nur welche, WEIL nVidia drauf steht. DAS ist für mich Fangelaber und fern ab jeglicher Vernunft.

MfG, Föhn.
 
Viele vergessen auch das nur Deutschland einen so absurd hohen Strompreis hat , Energieeffizienz ist denn meisten daher scheiss egalin Amerika wenn man Youtubern glauben kann macht das zum Teil keine 10 $ im Jahr :)
Aber der Deutsche rettet das Klima ja im alleingang auch wenn der Chinese fuer jedes abgeschaltete Kohle KW 10 neue hinstellt :)
 
@ 3dfx01

Also ich hab absolut KEIN Problem damit, wenn jemand sagt / schreibt : Er will hohe Leistung (mehr als Vega) und ist gewillt dafür auch mehr Geld auszugeben.
Aber im speziellen gerade bei DER GTX 1650, teurer als die RX 580 (ab 169 €), halb soviel Speicher und Bandbreite (128 Bit statt 256 Bit) und somit vermutlich auch langsamer !!
Und den "Schmarr´n" kaufen dann wirklich nur welche, WEIL nVidia drauf steht. DAS ist für mich Fangelaber und fern ab jeglicher Vernunft.

MfG, Föhn.
Hast du schon mal deine Beiträge gelesen ? Völlig einseitige realitätsferne Werbung und polemisches Gesülze in nahezu jedem Beitrag, ich denke nicht das irgendjemanden interessiert womit du Probleme hast. Eigentlich unglaublich wie man andere teils mit falschen Zahlenspielen und ähnliches in sinnlose "Fanboy-Wars" zu baiten versucht und das in jeder News/Test/Benchmark etc. in der du missionierst, und sprichst Verknuft :hmm:.
Dein Nvidia ist schlecht und teuer gespamme inklusisive matty ist einfach nur lächerlich und ziemlich autistisch.
Die Leute werden auch hier nach Möglichkeit die Leistung und Effizienz bewerten und dann nach Budget einkaufen, und auch wenn ich zu viele Modelle im Markt sehe wird auch diese Karte sich preislich da einpendeln wo sie hingehört.
 
Bei den Kommentare hier merkt man, das viele keinerlei Erfahrung mit einer 1050(ti) und deren Zielgruppe haben. Ich habe 2 1050ti und eine 1070, wo ich eine 1050 ersetzen (wollte!aber anderes Thema).

Eine 1050ti oder kommende 1650 braucht nicht mehr als 4GB Speicher, weil die Spieleleistung unter ausreichend angesiedelt ist. Bietet Sie doch mehr Leistung als APU´s, was diese nicht erbringen können und den gleichen oder gering mehr Stromhunger kein Problem für schwache Netzteile hat. Sie richtet sich an Freunde leiser PC´s, die trotzdem gerne alles Spielen wollen und durch den geringen Strombedarf in allen Belastungszustanden ist auch gut für den Geldbeutel und taugt auch als Videoschaurechner, der nicht wie ein Fön klingt. Durch eine geringe Abwärme braucht man auch keine oder wenige Gehäuselüfter. Das PhysX kann man genau so gut über CPU berechnen lassen, viele aktuelle Spiele gehen 60 Fps auf mittel, wenns ruckelt einzelne Einstellungen auf Low Details. Dafür bleibt der Spielerechner immer leise

Wem das egal ist, die Stromrechnung jemand anderes bezahlt oder einen hochbezahlten Traumjob hat holt sich sicherlich was besseres, allein schon zum aufdrehen der Grafik oder Bink-Blink mit diesen RGB-Gaming Beleuchtungszeugs, was meiner Meinung spielerisch eher ablenkt, kann das doch tun. Sie sollten aber keine andere Meinungen schlecht Reden. Auch eine 1660 für 220€ ist ein geringer Aufpreis und rund +85% mehr Spieleleistung ist durchaus eine Überlegung wert. Die 1660ti empfinde ich zu teuer, da sollte man gleich zu eine 2060 oder besser nehmen, allein schon für das RTX Erlebnis der Zukunft!
 
Zurück