Geforce GTX 880: Umfangreicher Leak zeigt angebliche Spezifikation der Maxwell-GPU GM204

Lass uns unsere Eigenen leaks machen:)

Ok: Es wird ein GM 102,5 mit 12,5Mrd Transitoren und 1,5GHz Takt und drölfzig GB Ram und ganz viel Verbrauch, welcher für 20nm nicht geplant war. :ugly:

Naja mal sehen was so stimmt an den Daten

Das die aktuellen Preisregionen generell nicht zu begrüßen sind will ich auch gar nicht abstreiten.
Wer aber denkt, dass eine GTX 880 für 250€ kommt und damit an eine 560 ti anschließt der ist einfach nur Realitätsfremd.

Lieber Golden Mic :D
Aber wir hatten doch schon solche Zeiten... POV GTX275 185€ sowie BFG GTX285 OC 270€ als Beispiele.
Ende 2009 waren die Preis für Grafikkarten im oberen Bereich definitiv geringer als heute, wäre doch von allen Seiten zu hoffen wenn es wieder so kommen würde.
Ich war damals noch nicht so ganz drin, wieso waren die Preise im Vergleich zu jetzt so human?

Edit: Die Preise stammen von Werbeanzeigen der PCGH von damals :P
 
och ich warte dann mal lieber auf den Herr PasCal ich glaube mal nicht, das der Maxwell genug dampf hat. Auch wenn er DX 12 kann, aber meine 8 Tee Flops sind schon gut. Und sollten eine weile halten, :ugly: Und ich denke ich krieg kein vram problem mit 2 x 3 gb auch wenn ich in 5760x1080 zocke.
 
Zuletzt bearbeitet:
Was stimmen mag. Dafür sind die Konsolengrafikkarten untertaktet. Der Prozessor zieht am PC nicht viel. Habe es zwar nie gemessen, aber ich schätze das es ca. 60 bis 80 Watt sind. Das ist dann auch ein echter Prozessor und nicht aus einen Laptop entsprungen. Insgesamt wären das für das System zwischen 40 (Leerlauf) und 180 Watt (Volllast) bei einer höheren Leistung. Wobei nicht vergessen werden darf, dass der Verbrauch am PC je nach Situation mehr als auf den Konsolen variiert. Die Playstation 4 soll im Menü 90 Watt verbrauchen. Der PC kommt auf die Hälfte.

Äh, du weisst aber schon das die APU in der PS4 drin ist richtig aufgebohrt wurde, einen Octacore und sollen bei 1.6Ghz liegen(genau weiss das nur AMD und Sony denke ich) und der GPU Part bei einer 7850-7870 bzw. R9 270 liegt, und das fordert auch seinen Tribut, ausserdem sollte man nicht vergessen wann die Specs erstellt wurden.


Und die Leistungsaufnahme soll bei den Spielen bei 150W liegen.

Aber das ist Offtopic

Und ich denke ich krieg kein vram problem mit 2 x 3 gb auch wenn ich in 5760x1080 zocke.


Naja, entweder geht dir der Speicher aus, oder deine GPU´s sind zu schwach, kannst dir dann aussuchen
 
Was stimmen mag. Dafür sind die Konsolengrafikkarten untertaktet. Der Prozessor zieht am PC nicht viel. Habe es zwar nie gemessen, aber ich schätze das es ca. 60 bis 80 Watt sind. Das ist dann auch ein echter Prozessor und nicht aus einen Laptop entsprungen. Insgesamt wären das für das System zwischen 40 (Leerlauf) und 180 Watt (Volllast) bei einer höheren Leistung. Wobei nicht vergessen werden darf, dass der Verbrauch am PC je nach Situation mehr als auf den Konsolen variiert. Die Playstation 4 soll im Menü 90 Watt verbrauchen. Der PC kommt auf die Hälfte.

Ohne gleich wieder eine große Debatte zu entfachen, was nu sinnvoller ist oder nicht....
Aus heutiger Sicht ist das Preis-Leistungs-Watt Verhältnis rein auf die Hardware gesehen bei einer PS4 am größten. ;)

Sony hat da schon einen ordentlichen Job bei der Zusammenstellung gemacht. Man darf auch nicht vergessen, das die Teile ja schon frühzeitig feststehen mussten und nicht erst ein paar Monate vor Release. :D
 
Ohne gleich wieder eine große Debatte zu entfachen ,was nu sinnvoller ist oder nicht....
Aus heutiger Sicht ist das Preis-Leistungs-Watt Verhältnis rein auf die Hardware gesehen bei einer PS4 am größten. ;)

Sony hat da schon einen ordentlichen Job bei der Zusammenstellung gemacht. Man darf auch nicht vergessen, das die Teile ja schon frühzeitig feststehen mussten und nicht erst ein paar Monate vor Release. :D
deswegen benutze ich auch nen pc weil mir die paar watt, genauso wie beim tritt aufs pedal, scheissegal sind. es geht mir um den spass! ick will spass! fanünftich bin ick bei meina freundin:ugly:
 
Äh, du weisst aber schon das die APU in der PS4 drin ist richtig aufgebohrt wurde, einen Octacore und sollen bei 1.6Ghz liegen(genau weiss das nur AMD und Sony denke ich) und der GPU Part bei einer 7850-7870 bzw. R9 270 liegt, und das fordert auch seinen Tribut, ausserdem sollte man nicht vergessen wann die Specs erstellt wurden.
Der CPU Part der PS4 APU ist auf 25 Watt spezifiziert. Die geringe IPC sowie der niedrige Takt (und damit die niedrige erforderliche Spannung) sorgen dafür, dass dieser geringe Verbrauch zustande kommt. Der GPU Part ist keine HD7850 (1024 Shader @ 860 MHz) und auch keine HD7870 (1280 Shader @ 1000 MHz), sondern eine GPU mit 1152 Shadern @ 800 MHz.

Durch diese Untertaktung kann man auch wieder die Spannung und damit den Stromverbrauch deutlich senken. Die Shader selbst ändern vergleichsweise wenig am Stromverbrauch, weshalb man - bei gleicher Performance - mit 1152@800 eine verbrauchsärmere GPU als mit 1024@860 bauen kann.

Aus heutiger Sicht ist das Preis-Leistungs-Watt Verhältnis rein auf die Hardware gesehen bei einer PS4 am größten. ;)
Nicht unbedingt. Mein PC hat eine deutlich schnellere CPU, leicht schnellere GPU, den besseren Soundchip, mehr Ram... ist ein modulares System (also nicht verbrauchsoptimiert) und liegt unter Last trotzdem nur etwa 50 Watt über der PS4 - Idle sogar deutlich darunter. :ugly:
 
Wenn das stimmt dann sag ich nur "Nie wieder NVIDIA" Schon wieder ein kastrierter chip. und wer sich eine voll ausgebaute Grafikkarte will, muss sich
Geforce Titan Ultra Black Beast edition kaufen Nvidia Ihr seit doof macht weiter chips für handys. :daumen2:
 
Nicht unbedingt. Mein PC hat eine deutlich schnellere CPU, leicht schnellere GPU, den besseren Soundchip, mehr Ram... ist ein modulares System (also nicht verbrauchsoptimiert) und liegt unter Last trotzdem nur etwa 50 Watt über der PS4 - Idle sogar deutlich darunter. :ugly:

Du hast es doch selbst gesagt. 50 Watt über der PS4, was prozentual immerhin 30% ausmacht. Zum Anderen glaube ich nicht, das dein System insgesamt 400 Euro gekostet hat. Darauf wollte ich doch hinaus. ;)

Aber wie ich schon bereits sagte, wollte ich keine neue Debatte losfechten. Bin doch selbst PCer. ^^
 
Bei mir noch besser die 670 im Referenz eingeschickt und jetzt ne MSI GTX 780 Twin Frozr im PC ohne mehrkosten ;)
Da müsste meine aber in den nächsten Wochen kaputt gehen, die wird Ende Mai 2 Jahre.

Mehr noch, sollte es wirklich erst Ende des Jahres so weit sein.
Dann wären es fast 3 Jahre, und die 7xx Series hätte länger Bestand als die 6xx Series.
Bei AMD und Nvidia verlangsamt sich zunehmend das Tempo, und die Produktzyklen werden deutlich länger.

Ich fürchte, dass wird zukünftig noch viel schlimmer werden.
Naja, die Technik wird immer komplizierter und damit steigen die Entwicklungskosten und -zyklen. Zudem sinken die PC-Absätze bei stagnierender Performanceanforderungen (wie lange ist 1080p jetzt Standard?). Daher müssen die Firmen die Entwicklungskosten strecken.
 
Wenn die nur 4gb bekommt behaupte ich jetzt schon das es zuwenig ist.

Mit UHD Monitor wird das wohl auf Jahre betrachtet zu wenig Ram sein, ja. Deshalb hab ich grad auf eine 1900er Auflösung zurück gerüstet -> Keine Probleme mit Vram, Rohleistung, MR, Lag und Reaktion.... Man muß den Realitäten nur in's Auge sehen ;)

----------------

Der "Leak" kann nur passen wenn auf den Maxwell's, in Verbindung mit den 256 bit, extrem viel Cache drauf ist. Das das so problemlos mit immer mehr Cache funktioniert wage ich zu bezweifeln. Schon weil sich für mein Verständnis der Lag mit jedem mehr an Cache erhöhen dürfte, was ja auch nicht sinn und zweckdienlich ist. Oder wurde der Lagkiller G-Sync erfunden um ihn dann am Ende per Grafikkarte wieder zu zu fügen ? Sehr omminös das Ganze ist :)

Wenn so ein GM204 (in gut funktionstüchtig) dann doch 20% Mehrleistung gegenüber der 780Ti bringt, dann gebe ich auch gerne 450€ dafür aus. Schon weil ich in 2 Jahren bis zu 100€ an Stromkosten gegenüber meiner ehemaligen 780/780Ti einsparen könnte....
 
Der CPU Part der PS4 APU ist auf 25 Watt spezifiziert. Die geringe IPC sowie der niedrige Takt (und damit die niedrige erforderliche Spannung) sorgen dafür, dass dieser geringe Verbrauch zustande kommt. Der GPU Part ist keine HD7850 (1024 Shader @ 860 MHz) und auch keine HD7870 (1280 Shader @ 1000 MHz), sondern eine GPU mit 1152 Shadern @ 800 MHz.

Durch diese Untertaktung kann man auch wieder die Spannung und damit den Stromverbrauch deutlich senken. Die Shader selbst ändern vergleichsweise wenig am Stromverbrauch, weshalb man - bei gleicher Performance - mit 1152@800 eine verbrauchsärmere GPU als mit 1024@860 bauen kann.

Ich habe nie geschrieben das dort eine 7850, oder 7870, oder R9 270 drin ist

und der GPU Part bei einer 7850-7870 bzw. R9 270 liegt

Ich habe nur einen Vergleich herangezogen was man damit in Verbindung setzen kann.

Und den CPU Part, Quelle?

aber das ist ein anderes Thema


Nicht unbedingt. Mein PC hat eine deutlich schnellere CPU, leicht schnellere GPU, den besseren Soundchip, mehr Ram... ist ein modulares System (also nicht verbrauchsoptimiert) und liegt unter Last trotzdem nur etwa 50 Watt über der PS4 - Idle sogar deutlich darunter. :ugly:

Specs?
 
Ja dann wage ich noch mal einen Versuch der Aufklärung, welche manche hier dringend nötig haben!!!

Aussage: 4gb könnten knapp werden
Fazit: Im Skyrim Ramvergleich Titan Black vs 780ti, musste Skyrim schon mit extremen Einstellungen/Mods geprügelt werden, damit man bei 3gb Speicher mini Drops erkennt, was im Alltag nie der Fall sein wird.
Weiter kann ich mein System als Beispiel nehemen, AC4 alles auf Anschlag in WQHD, ohne PhysX und 1/2 Vsync (30fps) läuft das Spiel meist ohne Dops mit einer durchschnittlichen GPU-Auslastung von 75% und der Ram ist bis aufs Maximum gefüllt! In Städten habe ich manchmal Drops allerdings, allerdings nur wenn die GPUs mit je 99% Arbeiten. Also ist es definitv hier nicht der Ram der Schuld ist!
(Ich könnte noch noch andere Beispiele nennen)
Kernaussage: Nur weil der Ram komplett genutzt wird, heisst das nicht immer, dass dieser Limitiert!

Aussage: 256bit Interface ist zu gering.
Fazit: Was das Stichwort sein sollte ist die Datenübertragungsrate und hier will ich dann Raff seine Aussage nehmen: "mit einer guten OC GTX750ti(86,4GB/s) bekommt man die Leistung einer GTX580(192,4GB/s)! Sprich bei weniger als der halben Datenübertragunsrate, gleiche Leistung! somit muss man davon ausgehen dass Maxwell sehr gut in diese Richtung optimiert wurde und ein 256bit Interface somit bestimmt genügt!!!

Aussage: Nvidia verarscht uns mit einem Performance Chip als High-End Chip
Fazit: Die Entwicklung und Produktion schüttelt Nvidia nicht einfach so aus dem Arm, hier kommen viele Kosten zusammen. Ich mag lieber einen Zwischenschritt und beide Chip können glänzen, der GK104 war z.b. ein sehr guter Chip für die 600er Generation, zu diesem Zeitpunkt war es Nvidia wahrscheinlich gar nicht möglich einen halbwegs Funktionsfähigen GK110 zu fertigen (und die Ausbeute mit betrachtet). Ja für einen Vollwertigen GK110 brauchte es sogar eine neue Revision! Bei Maxwell wird es nicht anders sein. Durch den Zwischenschritt gewinnen sie sozusagen 1 Jahr Entwicklungszeit für die richtig Fetten Chips!

Zusatz zu 4K:
Dies wird auch mit Maxwell nicht wirklich möglich sein, also mit vollen Details und 60fps. Bei alten Spielen wird vielleicht genügend Leistung vorhanden sein. Tomb Raider zwei Jahre nach erscheinen, endlich in 4k Spielen können? Wenn mehr Leistung da ist, wissen die Entwickler schon, wie sie diese Verbraten können! Lassen wird mal 1440p die nächsten zwei Generationen reifen und denken dann erst an spielbares 4k. Bei 4K gibt es noch zuviele Baustellen!

Manche hier im Forum regen mich auf, weil sie die Werte nur Oberflächlich betrachten in scheinbar 0 Ahnung haben, sich trotzdem für würdig halten gegen eine Firma zu stänkeren!

Die GTX680 (von viel als Abzocke getitelt) ist eine sehr gute Karte und im SLI dient sie mir Heute noch ausreichen, wenn nun der GM204 kommt (die letzten Jahre wurden die neuen Generationen immer Februar, März veröffentlicht), haben die GTX680 Karten mir 3Jahre gedient! Ich gebe zu mittlerweile fänkt es an zu Jucken, aber es ist ja nicht mehr sooo lange. Noch nie in meinem Leben, und ich habe mit einer Voodoo1 angefangen, reichte die Leistung über so einen grossen Zeitraum! Wenn es mit Maxwell nach dem gleichen Schema geht, bin ich mehr als glücklich!!
 
Das die alternde Generation der GraKas noch heute ausreichend ist trifft aber nicht nur auf die 680 zu. Meine 7970 ist nun schon über 2 Jahre im System und es gibt noch immer keinen Grund sie auszuwechseln und das wird in 2014 auch so bleiben. Auch ich hatte niemals zuvor eine GraKa so lang in Benutzung und war so zufrieden mit der Leistung. Höchstens damals die 9700er, die mir abgeraucht ist, die dann aber durch eine 9800er ersetzt wurde und eigentlich nur unwesendlich mehr Leistung hatte. Freuen wir uns doch, dass wir nicht ständig neue Karten kaufen müssen.
Meine erste 3D-Karte war übrigens auch ne Voodoo1, die liegt noch immer in meiner Schublade :). Nie wieder hat mich ne Karte so dermaßen fasziniert.
 
Ja dann wage ich noch mal einen Versuch der Aufklärung, welche manche hier dringend nötig haben!!!

Aussage: 4gb könnten knapp werden
Fazit: Im Skyrim Ramvergleich Titan Black vs 780ti, musste Skyrim schon mit extremen Einstellungen/Mods geprügelt werden, damit man bei 3gb Speicher mini Drops erkennt, was im Alltag nie der Fall sein wird.
Weiter kann ich mein System als Beispiel nehemen, AC4 alles auf Anschlag in WQHD, ohne PhysX und 1/2 Vsync (30fps) läuft das Spiel meist ohne Dops mit einer durchschnittlichen GPU-Auslastung von 75% und der Ram ist bis aufs Maximum gefüllt! In Städten habe ich manchmal Drops allerdings, allerdings nur wenn die GPUs mit je 99% Arbeiten. Also ist es definitv hier nicht der Ram der Schuld ist!
(Ich könnte noch noch andere Beispiele nennen)
Kernaussage: Nur weil der Ram komplett genutzt wird, heisst das nicht immer, dass dieser Limitiert!

Aussage: 256bit Interface ist zu gering.
Fazit: Was das Stichwort sein sollte ist die Datenübertragungsrate und hier will ich dann Raff seine Aussage nehmen: "mit einer guten OC GTX750ti(86,4GB/s) bekommt man die Leistung einer GTX580(192,4GB/s)! Sprich bei weniger als der halben Datenübertragunsrate, gleiche Leistung! somit muss man davon ausgehen dass Maxwell sehr gut in diese Richtung optimiert wurde und ein 256bit Interface somit bestimmt genügt!!!

Aussage: Nvidia verarscht uns mit einem Performance Chip als High-End Chip
Fazit: Die Entwicklung und Produktion schüttelt Nvidia nicht einfach so aus dem Arm, hier kommen viele Kosten zusammen. Ich mag lieber einen Zwischenschritt und beide Chip können glänzen, der GK104 war z.b. ein sehr guter Chip für die 600er Generation, zu diesem Zeitpunkt war es Nvidia wahrscheinlich gar nicht möglich einen halbwegs Funktionsfähigen GK110 zu fertigen (und die Ausbeute mit betrachtet). Ja für einen Vollwertigen GK110 brauchte es sogar eine neue Revision! Bei Maxwell wird es nicht anders sein. Durch den Zwischenschritt gewinnen sie sozusagen 1 Jahr Entwicklungszeit für die richtig Fetten Chips!

Zusatz zu 4K:
Dies wird auch mit Maxwell nicht wirklich möglich sein, also mit vollen Details und 60fps. Bei alten Spielen wird vielleicht genügend Leistung vorhanden sein. Tomb Raider zwei Jahre nach erscheinen, endlich in 4k Spielen können? Wenn mehr Leistung da ist, wissen die Entwickler schon, wie sie diese Verbraten können! Lassen wird mal 1440p die nächsten zwei Generationen reifen und denken dann erst an spielbares 4k. Bei 4K gibt es noch zuviele Baustellen!

Manche hier im Forum regen mich auf, weil sie die Werte nur Oberflächlich betrachten in scheinbar 0 Ahnung haben, sich trotzdem für würdig halten gegen eine Firma zu stänkeren!

Die GTX680 (von viel als Abzocke getitelt) ist eine sehr gute Karte und im SLI dient sie mir Heute noch ausreichen, wenn nun der GM204 kommt (die letzten Jahre wurden die neuen Generationen immer Februar, März veröffentlicht), haben die GTX680 Karten mir 3Jahre gedient! Ich gebe zu mittlerweile fänkt es an zu Jucken, aber es ist ja nicht mehr sooo lange. Noch nie in meinem Leben, und ich habe mit einer Voodoo1 angefangen, reichte die Leistung über so einen grossen Zeitraum! Wenn es mit Maxwell nach dem gleichen Schema geht, bin ich mehr als glücklich!!
Aussage: 4gb könnten knapp werden
Genau wie du es sagst: Es ist echt schwierig, 4 GiB Grafikspeicher so weit auszulasten, dass es zum Absturz des Spiels oder überhaupt zu nennenswerten Performanceverlusten führt!
Ich hab ja selber mit der 680m 4 GiB Ram und weiß daher, dass man sich dafür echt hart ins Zeug legen muss!


Aussage: 256bit Interface ist zu gering.
Deine Werte sind in meinen Augen dann doch sehr überraschend. Haben sich in den letzten paar Jahren etwa die Ram-Latenzen beim GDDR5 so stark verbessert, dass es nun so viel Performance aus der theoretischen Datenrate rauspressen kann? Denn wir wissen ja, dass RamOC ja immer noch Performancegewinne verursacht!

Aussage: Nvidia verarscht uns mit einem Performance Chip als High-End Chip
Der Knackpunkt der Diskussion war eher, dass der Chip verdammig klein war für seinen Preis. Und, dass selbst der GK 110 als Titan hinterher noch deutlich über dem Preisniveau der Flächenmäßig ähnlichen 580 lag...

Zusatz zu 4K:
Meine persönliche Meinung ist: Die Industrie sollte möglichst schnell "4K ready" werden, also entsprechende Anschlüsse (am besten schon direkt mit FreeSync) und die Bildschirme liefern. Da sich ja 1080P unverzerrt auf 2160P hochskalieren lässt, verlieren wir eigentlich nichts dadurch---2160P in jedem Spiel flüssig wird aber wirklich noch ein paar Jahre dauern!
 
Geforce GTX 880: Umfangreicher Leak zeigt angebliche Spezifikation der Maxwel...

Das die alternde Generation der GraKas noch heute ausreichend ist trifft aber nicht nur auf die 680 zu. Meine 7970 ist nun schon über 2 Jahre im System und es gibt noch immer keinen Grund sie auszuwechseln und das wird in 2014 auch so bleiben. Auch ich hatte niemals zuvor eine GraKa so lang in Benutzung und war so zufrieden mit der Leistung. Höchstens damals die 9700er, die mir abgeraucht ist, die dann aber durch eine 9800er ersetzt wurde und eigentlich nur unwesendlich mehr Leistung hatte. Freuen wir uns doch, dass wir nicht ständig neue Karten kaufen müssen.
Meine erste 3D-Karte war übrigens auch ne Voodoo1, die liegt noch immer in meiner Schublade :). Nie wieder hat mich ne Karte so dermaßen fasziniert.

Gebe dir 100% Recht, auch AMD ist im moment sehr gut aufgestellt!

@CD Labs...

Ich bin auch überrascht wie gut der Mini-Maxwell so abschneidet, aber warum jammern, wir sollten uns freuen dass endlich optmiert wird und die Leistung nicht mehr mit dem Hammer rausgehauen wird!
 
Zuletzt bearbeitet:
Aussage: 256bit Interface ist zu gering.
Deine Werte sind in meinen Augen dann doch sehr überraschend. Haben sich in den letzten paar Jahren etwa die Ram-Latenzen beim GDDR5 so stark verbessert, dass es nun so viel Performance aus der theoretischen Datenrate rauspressen kann? Denn wir wissen ja, dass RamOC ja immer noch Performancegewinne verursacht!

Die kleine GTX 750 Ti hat einen verhältnismässig riesig großen L2 Cache mit 2MB, ein GF110 dagegen hat nur 768kb.
Kurz man spart sich viele Zugriffe auf den VRAM und somit auch Bandbreite.
 
Aussage: Nvidia verarscht uns mit einem Performance Chip als High-End Chip
Der Knackpunkt der Diskussion war eher, dass der Chip verdammig klein war für seinen Preis. Und, dass selbst der GK 110 als Titan hinterher noch deutlich über dem Preisniveau der Flächenmäßig ähnlichen 580 lag...

Du bringst jetzt nicht wirklich Chipfläche pro Euro als Argument?
 
AW: Geforce GTX 880: Umfangreicher Leak zeigt angebliche Spezifikation der Maxwel...

....aber warum jammern, wir sollten uns freuen dass endlich optmiert wird und die Leistung nicht mehr mit dem Hammer rausgehauen wird!


=> optimiert wird immer und seit ewigkeiten. Trotzdem sind die leute dann trotzdem so geil auf die Leistung, dass man eben noch nen optimierten Hammer raushaut.

finde hohen stromverbrauch nicht schlimm, dafür spiele ich zu wenig. Finde es aber lustig wie sich leute darüber aufregen nur weil noch eine alternativkarte existiert (der öko könnte ja trotzdem die öko karte kaufen).

=> aber da haben 90% der ökos wohl innere zwiespalt zwischen 1. Öko der ne Highendkarte will
2. Öko der aber gerne ne Öko karte will.

=> ist ja eigentlich affig



Zu leistungslimitierten Staubsaugern und so weiter sag ich jetzt einfach mal nix mehr:

weniger motorleistung bei gleichem technologiestand => weniger saugkraft => längeres staubsaugen => keine stromersparnis

nur 200W Karten => weniger FPS => mehr SLI Systeme => auch kaum was gespart + mehr Probleme als Single Gpu

=> diese gesellschaft hat teilweise einen an der Waffel ^^
 
Zusatz zu 4K:
Meine persönliche Meinung ist: Die Industrie sollte möglichst schnell "4K ready" werden, also entsprechende Anschlüsse (am besten schon direkt mit FreeSync) und die Bildschirme liefern. Da sich ja 1080P unverzerrt auf 2160P hochskalieren lässt, verlieren wir eigentlich nichts dadurch---2160P in jedem Spiel flüssig wird aber wirklich noch ein paar Jahre dauern!

Ich finde aber, das es mit 4K dieses Mal richtig fix ging, wenn man bedenkt wie lange es zu Full HD gedauert hatte, bis es sich auf den Markt etabliert hat.
(2010 noch als 4k2k, seit 2012 4K, Full HD als solches Existent seit Ende der 90iger ^^)

Genauso auch was die Preise für Monitore angeht, auch wenn diese zunächst für´s fixe gaming eher ungeeignet sind.
Aber 4K Monitore für unter 500 €, nach so einem kurzen release Zeitraum ist schon ziemlich fix. ;)

Fehlt halt "nur" noch die richtige Schnittstelle bzw Medium. ^^ (HDMI 2, Archival Disc etc...)

Freu mich schon, wenn es dann wieder von neuem los geht. :D
3840 × 2160 vs 7680 × 4320 alias 4K vs 8K.

Aber das dauert wohl noch ein bissel. :ugly:
 
Zuletzt bearbeitet:
Zurück