Geforce GTX 1050 (Ti) im Test: Pascal'sches Sparmodell

The Witcher 3: Per Trick Hairworks auf Radeons optimieren [jetzt mit Video-Anleitung][/url]

Ähm... gerade der von dir verlinkte Artikel bestätigt meine Aussage:
"Im 3DCenter-Forum wurde der Tessellation-Trick bereits angewandt, dort lassen sich die ersten Vergleichswerte finden. In der gleichen Szene sinken die durchschnittlichen Fps von 49,7 (ohne Hairworks) auf 42,1 (8x tesselliert) beziehungsweise 36,4 (16x tesselliert). Vor allem die achtfache Tessellation scheint aufgrund der kaum schlechteren Optik ein "Sweet-Spot" zwischen Leistung (- 15%) und Grafik zu sein."



Edit:
So da ist die GTX 1050TI nun ... kann da mal jemand einen Face 2 Face Test machen ? GTX 1050TI vs GTX 950 bei gleichen Taktraten!

mich würde mal Interesieren was die Architektur an Verbesseung bringt, abgesehen vom Die shrink und der damit verbundenen geringeren Leistungsaufnahme und möglichen höheren Taktraten.

???

Da dürfte es keinen Unterschied geben.
Alle anderen Pascal Chips (ausgenommen GP100) haben keinerlei nennenswerten Fortschritt bei IPC (Leistung pro Takt).
 
Zuletzt bearbeitet:
(8x tesselliert) beziehungsweise 36,4 (16x tesselliert). Vor allem die achtfache Tessellation scheint aufgrund der kaum schlechteren Optik ein "Sweet-Spot" zwischen Leistung (- 15%) und Grafik zu sein."

Ich hab zuerst auch gedacht dass mittels dem Tess Schalter 8x bereits ausreichend sind. Als dann als aber PCGH-glaub ich-Vergleichsbilder gemacht hatte, musste ich dann auf 32x hochschalten, weil ich sonst "Augenkrebs" bekam.:ugly:
 
Ich hab zuerst auch gedacht dass mittels dem Tess Schalter 8x bereits ausreichend sind. Als dann als aber PCGH-glaub ich-Vergleichsbilder gemacht hatte, musste ich dann auf 32x hochschalten, weil ich sonst "Augenkrebs" bekam.:ugly:

Im 3D-center.org Forum (siehe Link im verlinkten PCGH Artikel) sieht es auf den Vergleichsbildern sehr manierlich aus - auch die Kommentare von Spielern sind positiv zu der Änderung:

3DCenter Forum - Witcher 3: Wild Hunt Sammelthread - Seite 143
 
Wenn mich nicht alles täuscht dann hat man in Zusammenarbeit mit Sony die Ace´s bei den Konsolen GPU´s erhöht. Die erste GCN Iteration hat nur 2 Ace´s also Tahiti. Dort bringt es auch kaum Performance.



Die meisten Directx12 Spiele nutzen meines Wissens noch gar nicht async Compute, bzw es lässt sich nicht seperat an und abschalten, damit man einen Performanceunterschied ausmachen kann. Das funktioniert aktuell aber gut im 3D Mark beispielsweise.

Directx12 ist aber mehr als async compute und das Argument AMD habe die Karten mehr auf Directx12 ausgelegt, teile ich wegen FL12_1 nicht und auch generell nicht. Ich teile auch nicht diese Marketingfloskeln Nvidia habe nur Directx11 Karten, nicht, und da wird Locuza der sicherlich mehr in der Materie steckt, zustimmen, ich erinnere mich da an eine lange Diskussion im Planet3D Forum die er führte, die war ganz interessant.

Directx12 hilft AMD in erster Linie dabei den Directx11 Treiberoverhead abzubauen. Leider bauen die Programmierer je nach Optimierung und Güte gerade einen Directx12 Impementierungsoverhead ein, weil zu beobachten ist, dass in niedrigeren Auflösungen die AMD Karten mit langsamer CPU Vorteile haben. Ich schiebe das auf die Konsolen, hier muss Nvidia wohl mit Manpower die Entwickler unterstützen.



Das kann gut sein, vielleicht werden die mit der Zeit so gut wie Nvidias Directx11 Treiber und was das heißt kannst du laut meinem Eindruck aktuell in dem verbesserten Deus Ex Benchmarks bei CB sehen, wo sich GTX 1060 und RX480 kaum etwas unter Directx12 bzw. Directx11 mehr nehmen.

Deus Ex Benchmark: DirectX 12 legt in Mankind Divided massiv zu - ComputerBase

Und im Gegenschluss das GCN 2. Generation (Sea Islands, HD 7790 und Rx 290/260 Serie) hat 8 ACEs hat und weiter ?? Das war doch nicht Teil meiner Aussage , ich lebe doch im hier und jetzt ! Und beziehst dich auf 4 Jahre alte Grafikkarten - Hut ab !!! Du machst mir Angst und versuchst zu verwirren und lenkst vom Thema ab - NVidia kann kein ASC !

Den Rest lass ich jetzt Unkommentiert da mir meine Zeit für den Scheiß zu wertvoll ist , Und denk drann - du brauchst mit mir nicht uber AMD und NVidia streiten , ich mag beide Hersteller ! Und ganz besonders mag ich gerade meine 1070 , so Effizent wie eine RX480 und mit 90 % der Power einer 1080 !
Es ändert aber nichts daran das ich auf den GCN Zug aufspringen werde und mir zu meinem 290X Crossfire gespann noch eine RX470 o. 480 zum testen kaufen werde !!!
 
So da ist die GTX 1050TI nun ... kann da mal jemand einen Face 2 Face Test machen ? GTX 1050TI vs GTX 950 bei gleichen Taktraten!


Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Nvidia GeForce GTX 1050 Ti review • Eurogamer.net

Hier in dem Test ist eine 950 mit dabei, und CB schreibt dass dazu:
Weiterhin beeindruckend ist dabei die Energieeffizienz, die Pascal offensichtlich nicht nur dem sehr guten Prozess bei TSMC zu verdanken hat, denn der GP107 aus der Fertigung von Samsung steht dem in nichts nach.
GeForce GTX 1050 (Ti) im Test: Einmal perfekt und einmal mit zu wenig Speicher (Seite 8) - ComputerBase
 
8x Tessl. ist wirklich etwas Knapp bemessen und fällt teils schon etwas auf, hab das mit Witcher 3 und Fallout 4 selber ausprobiert, 16X ist allerdings ausreichend und bringt schon einiges an Leistung, schade das man so einen Regler bei Nvidia nicht hat. Nvidia könnte ohnehin mal bei seinen Treibern etwas nachbessern, die Einstellungsmöglichkeiten sind ggü. AMD`s Crimson mittlerweile doch sehr spärlich und alles schaut ziemlich altbacken aus.
 
Beachtet bitte bei euren ganzen Stromrechnereien, dass es lokale Unterschiede gibt und die Preise stark vom Netzbetreiber abhängig sind.

Bei den Netzentgelten von den jeweiligen Verteilnetzbetreiber gibt es horrende Unterschiede, deshalb gibt es in Deutschland sowohl Preise von 20-22 Ct/KWh als auch 28+ Ct/KWh
 
Und im Gegenschluss das GCN 2. Generation (Sea Islands, HD 7790 und Rx 290/260 Serie) hat 8 ACEs hat und weiter ?? Das war doch nicht Teil meiner Aussage , ich lebe doch im hier und jetzt !

Ich habe auch nicht gesagt dass das Teil deiner Aussage war, ich glaube einfach nicht, dass dem Thema Genüge getan wird, Directx12 und Directx11 so einfach herunterzubrechen. Wenn AMD zulegt und Nvidia nicht, hat das noch lange nichts damit zu tun, dass Nvidias Karten nicht auf diese API ausgelegt wären, sondern Nvidia hat eben bereits zuvor in Directx11 Multithreading in deren Treiber investiert und konnte damals schon mit mehr Drawcalls viel besser umgehen, heißt die CPU last niedrig halten.

Bei Mantle passierte doch im Endeffekt das gleiche. Nivdia war dann nach den Treiberverbesserungen selbst in Battlefield 4 schneller als AMD mit Mantle, außer in stark CPU limitierten Bereichen.

Und beziehst dich auf 4 Jahre alte Grafikkarten - Hut ab !!! Du machst mir Angst und versuchst zu verwirren und lenkst vom Thema ab - NVidia kann kein ASC !

Ich weiß nicht wovon du redest, bzw ich glaub du hast den Faden verloren.

Den Rest lass ich jetzt Unkommentiert da mir meine Zeit für den Scheiß zu wertvoll ist , Und denk drann - du brauchst mit mir nicht uber AMD und NVidia streiten , ich mag beide Hersteller !

Ich streite nicht und wenn dann brauche ich dazu auch keine Ausrufezeichen.:hmm:
 
8x Tessl. ist wirklich etwas Knapp bemessen und fällt teils schon etwas auf, hab das mit Witcher 3 und Fallout 4 selber ausprobiert, 16X ist allerdings ausreichend und bringt schon einiges an Leistung, schade das man so einen Regler bei Nvidia nicht hat. Nvidia könnte ohnehin mal bei seinen Treibern etwas nachbessern, die Einstellungsmöglichkeiten sind ggü. AMD`s Crimson mittlerweile doch sehr spärlich und alles schaut ziemlich altbacken aus.
Ja, das Nvidia-Treibermenu ist die selbe Qual wie schon seit Jahren...
...wirklich dreist, vor allen Dingen, wenn man den ProfileInspector dagegen hält, der in der Zeit startet, die man in der Nvidia-Systemsteuerung für die Umsetzung eines Klicks braucht.
Klar, der ist nichts für den unambitionierten User, die Nvidia-Systemsteuerung aber eben in etwa genauso wenig, in den Spielesettings beschnitten und arschig lahm! Aber hey, eine miese Systemsteuerung treibt ja noch mehr User zu GeforceExperience... :daumen2::daumen2::daumen2:
 
Eingebundener Inhalt
An dieser Stelle findest du externe Inhalte von Youtube. Zum Schutz deiner persönlichen Daten werden externe Einbindungen erst angezeigt, wenn du dies durch Klick auf "Alle externen Inhalte laden" bestätigst: Ich bin damit einverstanden, dass mir externe Inhalte angezeigt werden. Damit werden personenbezogene Daten an Drittplattformen übermittelt.
Für mehr Informationen besuche die Datenschutz-Seite.
Nvidia GeForce GTX 1050 Ti review • Eurogamer.net

Hier in dem Test ist eine 950 mit dabei, und CB schreibt dass dazu:

GeForce GTX 1050 (Ti) im Test: Einmal perfekt und einmal mit zu wenig Speicher (Seite 8) - ComputerBase

Du hast da einen wichtigen Teil des Originaltextes "überlesen":

So da ist die GTX 1050TI nun ... kann da mal jemand einen Face 2 Face Test machen ? GTX 1050TI vs GTX 950 bei gleichen Taktraten!

Denn genau das macht der DF Test eben nicht.
 
Deshalb habe ich ja noch zusätzlich den Kommentar von CB verlinkt.
Der gibt genau die Antwort die gesucht wurde, ;)
 
Schaffe89

Ich weiß nicht wovon du redest, bzw ich glaub du hast den Faden verloren. - Faden aufgehoben ---- Die erste GCN Iteration hat nur 2 Ace´s also Tahiti = Und beziehst dich auf 4 Jahre alte Grafikkarten - Hut ab

Erste GCN Generation hat was ? mit meinen Aussagen zu tun – Ich versteh nicht was du willst . Springst wild hin und her bis die Grundasussage von mir Zerrissen ist !

Ist mir jetzt aber zu OT.
 
Deshalb habe ich ja noch zusätzlich den Kommentar von CB verlinkt.
Der gibt genau die Antwort die gesucht wurde, ;)

Ähm... nein?
Wo bitte gibt CB eine Antwort drauf, wie viele FPS die 1050 / TI bei gleichem Takt einer 950 oder 960 bringen?
Es ging ihm ja gerade nicht um den Stromspareffekt, sondern darum, was Pascal an sich besser macht - im Vergleich zu Maxwell (der direkte Vorgänger Chip wäre der GM206 mit genau gleich vielen CUDA Cores).

Das schreibt er auch noch sehr eindeutig mit in seinen Post:
So da ist die GTX 1050TI nun ... kann da mal jemand einen Face 2 Face Test machen ? GTX 1050TI vs GTX 950 bei gleichen Taktraten!

mich würde mal Interesieren was die Architektur an Verbesseung bringt, abgesehen vom Die shrink und der damit verbundenen geringeren Leistungsaufnahme und möglichen höheren Taktraten.
???

Da bleibt dann nur noch FPS pro Takt... und dazu hast Du eben keine Antwort geliefert.


Edit: Kommentar von BulliTT77 komplettiert
 
Wenn mich nicht alles täuscht dann hat man in Zusammenarbeit mit Sony die Ace´s bei den Konsolen GPU´s erhöht. Die erste GCN Iteration hat nur 2 Ace´s also Tahiti. Dort bringt es auch kaum Performance.
Bei Tahiti bringt es im Schnitt vermutlich mehr als bei Tonga und Polaris 10. Jedenfalls unter Ashes of the Singularity hat Tahiti im Schnitt etwas mehr profitiert als Tonga.
Das liegt einfach daran, dass zwei ACEs für die meisten Fälle völlig ausreichend sind und unter keinem Umständen jemals 8 Stück gebraucht werden.
Tahiti profitiert am Ende mehr, da er mehr Rohbandbreite besitzt und vielleicht auch mehr Idle-Units hat, weil das Geometrie-Frontend häufiger limitiert.


Die meisten Directx12 Spiele nutzen meines Wissens noch gar nicht async Compute, bzw es lässt sich nicht seperat an und abschalten, damit man einen Performanceunterschied ausmachen kann. Das funktioniert aktuell aber gut im 3D Mark beispielsweise.
So viele Spiele gibt es allgemein nicht, aber grob die Hälfte oder gar mehr?
Doom, Rise of the Tombraider, Ashes of the Singularity, Hitman, Deus Ex, Gears of War 4.

Quantum Break verwendet kein Async Compute, vermutlich auch nicht Forza, aber beim letzteren gibt es keine Infos.
Battlefield 1 ist offen.


Ähm... gerade der von dir verlinkte Artikel bestätigt meine Aussage:
"Im 3DCenter-Forum wurde der Tessellation-Trick bereits angewandt, dort lassen sich die ersten Vergleichswerte finden. In der gleichen Szene sinken die durchschnittlichen Fps von 49,7 (ohne Hairworks) auf 42,1 (8x tesselliert) beziehungsweise 36,4 (16x tesselliert). Vor allem die achtfache Tessellation scheint aufgrund der kaum schlechteren Optik ein "Sweet-Spot" zwischen Leistung (- 15%) und Grafik zu sein."
Video anschauen und nicht nur dem Text glauben.
Die Haare sehen erst ab x16 anständig aus und in Bewegung braucht man sowieso einen höheren Faktor.
Auf ein paar Bildern sieht der Unterschied wirklich nicht groß aus, aber das ist nur eine Szene und statisch.
 
Zuletzt bearbeitet:
Stimmt, er wollte eigentlich einen Vergleich zwischen Maxwell und Pascal unter ähnlichen Bedingungen.
Ich hatte das falsch verstanden, und dachte er wollte einen Vergleich der Unterschiedlichen Fertigung zwischen TSMC und GF oder Samsung.
Da sich bei Pascal aber nur wenig gegenüber Maxwell geändert hat, gibt es kaum Tests dazu.
Erst bei Volta wird es vermutlich wieder größere Änderung der Architektur geben.
Dann lohnt sich auch so ein Vergleich.
 
Zuletzt bearbeitet:
Aber vor allem, weil sie dort DOOM 2016 mit OpenGL testen.
Wenn die nicht wissen, wie sie VULKAN einschalten... hätten sie doch einfach fragen können.

Auch deshalb fahre ich wie erwähnt mit CB, PCGH und TH am genauesten.

ABER! HT4U haben immerhin einen User, der ihre Ergebnisse einrahmt. Dann sind sie doch nicht ganz verschwendet.


Wenn es gute Customs der 1050Ti mit 6Pin ohne Limit für bis max. 150€ gäbe, dann könnte man dafür noch eine Empfehlung aussprechen. Aber 170-190€ ist bei weitem übertrieben --> RX 470.

Also bitte :ugly:
Das werden mehr sein als nur ich ;)

Habe mich bei der Seite nie für mehr als die News so interessiert, aber ist dass nicht nur eine Person? Weswegen Tests auch länger dauern und dementsprechend später kommen und teilweise selbst finanziert?
Habe davor HT4U nurmal damit in Verbindung gebracht, dass sie von nVidia keine Samples mehr bekommen weil irgendwie oder irgendeine Wahrheit ans Licht gekommen ist, was nVidia nicht wollte und deswegen gabs auf den Deckel?
Der Redakteur es aber trotzdem wahrheitsgemäß gesagt hat und es Ihm egal war was nVidia vorgab?

Hat glaube ich mal jemand im Green/nVidiabase Forum geschrieben oder so.

Hätte ich gewusst was ich heraufbeschwöre wenn ich die Seite hier poste :rollen:
Ich wollte nur einen weiteren Vergleichswert haben und nicht gleiche den Anfang einer Hetze planen oder sonstige Seiten schlecht machen...
Ich nenne CB ja auch nVidiabase teilweise und trotzdem machen sie eine super Job :D

Sorry für off-Topic.
 
Schade, dass vor allem der Vergleich einer 750Ti mit ner 1050 non-Ti fehlt, das wäre taktbereinigt vor allem auf Grund der korrektur im Chip sehr interessant.
Ich tippe aber drauf, dass die 1050 da meiner GTX750Ti nicht weg rennt, da meine GTX mal eben 1600MHz Core macht ;)

Thema Effizienz:
Das ist halt nicht breitflächig gleich. Ich für meinen Teil, der es nur zu ein paar Stunden um Quartal schafft mal zu spielen, dem kann jede Effizienz egal sein. Ich kauf lieber ne GTX780Ti als ne 1050Ti und habe meinen Spaß mit deutlich mehr Grafikleistung, als den Stromverbrauch zu beachten. Lautstärke ist auch bei den "Monstern" rel. gut in den Griff zu bekommen, als Bastler ;)

In meinem HTPC setz ich lieber ne 70€ GTX750Ti ein, weil 100€+ mir für eine Nutzung der GPU an noch weniger Tagen als meine 780Ti einfach komplett am "Nutzwert" vorbei geht, ...

Nicht jeder braucht für alles immer die neuesten GPUs, und nicht immer die höchste Leistung.
Es gibt ja auch Casual Gamer oder Hobby Gamer, die der Zeit hinterher hängen. Bei Games von vor 2 Jahren langen die alten Karten oft noch. Aber selbst wenn man was neues will, ist man dann mit ner 1050 vielleicht sogar gut beraten, ...

Man muss bei sowas immer über den Tellerrand gucken.

Thema Strompreise:
Sorry Leute, 21Cent ist einfach nur ne Rechnung an der Untergrenze. 27 Cent sicher zu hoch. Aber einen vernünftigen Mittelwert dazwischen darf man ruhig anziehen. Trotzdem muss hier individuell betrachtet werden, wie viel man spielt, wie die Rahmenbedingungen sind, ....
Es gibt hier keine "absolute Wahrheit" sondern nur die "individuell interessanteste Lösung".
 
WennDX12flächendeckend implementiert ist, wird auch NV die daraufhin optimierten Karten dem Markt anbieten. DX12 ist derzeit bis auf AAA Titel exotisch, und um die mit entsprechenden Details und FPS zu spielen, langt von diesen "Einsteigerkarten" eh nix. Also drauf geschißen. Wenn LoL und viele andere OnlineSpiele die auf 1080p laufen sollen mit 60 oder 120FPS daher kommen ind DX12, ja dann gäbe es auch Grakas die hier viel besser drauf optimiert sind. Bei Online Spielen und älteren Titeln ist aber halt alles noch DX11 und weniger. So what. Den Kundenkreis sprechen doch genau diese Karten an. Und die neusten Games kann man auch daddeln. Also alles Dufte.
Also wenn ich jetzt ne Grafikkarte brauche , kaufe ich ne NVidia um dann wenn DX12 richtig Funktioniert kaufe ich nochmal ne NVidia die das dann richtig kann ! Du hast die Marktpolitik von NVidia verstanden also kauf sie ruhig , meinen Glückwunsch .

Ich werd mich trotzdem mal nächer mit AMD Karten beschäftigen !!
Mal davon ab, das die Karte DX12 kann, bist du kein Stück auf das geschriebene eingegangen. Es geht darum, dass wenn man das Feature nutzt, weil es im Massenmarkt angekommen ist, gibts auch die Grafikkarten dafür, die dann mehr Leistung bringen. Auf Vorrat kaufen bei Grakas klappt nicht so prall wie bei Intel CPUs die mancher nun schon Jahrelang im Rechner hat. Und dabei waren das bei der Anschaffung auch die "großen" CPUs - und kein "non-k" ne Einsteigerkarte mit Feature Vorrat bringt nichts, wenn dass Spiel dann zwar mit der Karte angezeigt wird aber die FPS im Keller zuckeln, weil die Leistung überholt ist.
 
Thema Effizienz:
Das ist halt nicht breitflächig gleich. Ich für meinen Teil, der es nur zu ein paar Stunden um Quartal schafft mal zu spielen, dem kann jede Effizienz egal sein. Ich kauf lieber ne GTX780Ti als ne 1050Ti und habe meinen Spaß mit deutlich mehr Grafikleistung, als den Stromverbrauch zu beachten. Lautstärke ist auch bei den "Monstern" rel. gut in den Griff zu bekommen, als Bastler ;)

Damit sprichst du mir aus der Seele.
27 Cent per Kilowattstunde zahlen wir und ich empfinde das nicht als zu teuer. Wenn es einem zu teuer ist,muss man dann eben seinen Verbrauch anpassen, oder wechseln so schwer ist das nicht.
 
*sigh*
Ok... 20€ / Jahr... das wären dann bei €0,21/kWh = 95,2 kWh -> 1286,5h -> 3,52h / Tag bei 365 Tagen im Jahr.
Ich habe nicht gerade viele Hobbies und auch meine Frau spielt ziemlich viel.
Allerdings fällt es mir schon schwer auf 3,5h / Tag für PC Spiele zu kommen - und das bei 100% GPU Last.
Geht das schon wieder los.
Kostenersparnis hin oder her, bei gleich teurer, gleich schneller Hardware sollte man IMMER zu derjenigen greifen die weniger braucht. Nicht fürs Geldbörserl, sondern für die Umwelt. Die gibt es nämlich auch noch.
Das Thema wurde 1000x durchgekaut, natürlich kann man auch einfach auf die Umwelt schei*en oder sich aber rausreden "andere tun auch nix" oder begründen, dass das Teil bei der Produktion so viel Strom schluckt. Jaja, alles richtig. Es lässt sich trotzdem nicht leugnen, dass man einen kleinen Beitrag zur Umweltverschmutzung oder Rettung selbst trägt, und wenn es niemanden weh tut, kann man diesen kleinen Beitrag leisten. Indem man Hardware nicht tauscht die noch funktioniert (und ausreicht) und beim Kauf auch den Stromverbrauch in Betracht zieht (nicht aus Kostengründen allein. Übrigens der Kostenfaktor ist außerdem nebensache, weil es auch um Wärmeentwicklung und Lautstärke geht. Aber das ist nicht mein Kaffee.)
 
Zurück