Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Deshalb werden die kommenden GPUs so spannend, weil jetzt beide auf 7nm von TSMC setzen.
 
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Ja und, ändert aber trotzdem nichts daran, das der viel zu groß ist, um als Monitor verwendet zu werden.

BTT

Ja, das ist verständlich...

Aber nicht: Er heißt C9/C10 TV und nicht Monitor...

Seit diesem Jahr erst, oder seit Gsync vor 1 Monat freigeschaltet wurde, hat sich diese Unterscheidung erübrigt.
LG C9... nächstes Jahr C10 (und bisher nur diese!)
Sind einfach auch von den Spezifikationen mit Abstand, die besten Monitore mit zusätzlicher Funktion als TV
 
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

WTF ... ein TV ist auch als Monitor schlecht geeignet...

WTF!

Schreibe ich mit einem Hauptschüler?

Das ist von den Specs der beste MONITOR

Ich schreibe nicht über irgendeinen verdammten TV!

LG C9, der besseren Input Lag hat als 99% der Monitore.
Schreibe dir die Specs hin:

Gsync
12 ms bei 60Hz
6 ms bei 120 HZ Inputlag
Black Frame Insertion
HDR 1000
Dolby Vision
Dolby Atmos


Preis wird unter 1000 sein, im Herbst dann schon 700 und weniger.
Input Lag 6ms...

Und was?
Was bitte fehlt dir?

DisplayPort was?

Wenn hdmi 2.1, der jetzt schnellere Standard ist und GPUs ab 2020 den endlich verbauen.

OMG


NUR die Größe von 48 spricht bei vielen dagegen ihn als Monitor zu verwenden...

Und bei dir auch noch weil: "es steht TV drauf und nicht Monitor"
WTF...
Nein Displayport ist noch schneller als Hdmi 2.1.

Displayport wird auch erst der schnellste Anschluss bleiben.

Nur weil Hdmi 2.1 neuer ist hast es nicht das er langsamer ist als Displayport.

Gesendet von meinem D6603 mit Tapatalk
 
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Nein Displayport ist noch schneller als Hdmi 2.1.

Displayport wird auch erst der schnellste Anschluss bleiben.

Nur weil Hdmi 2.1 neuer ist hast es nicht das er langsamer ist als Displayport.

Gesendet von meinem D6603 mit Tapatalk

WTF!

Was?

Weswegen kann ich meinen X27 nicht ausfahren weil bei 4.4.4 10 Bit bei 98Hz Schluss ist...
Erst bei 4.2.2 10Bit 120HZ anliegen können?


Mein Displayport 1.4 bremst meinen Monitor aus
Mit HDMI 2.1 könnte ich ihn bis 4.4.4 10Bit 140HZ prügeln (womit er auch beworben wurde)

Displayport 1.4 ist zu langsam jetzt...
Wann der Nachfolger kommt, steht in den Sternen...
 
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

WTF!

Was?

Weswegen kann ich meinen X27 nicht ausfahren weil bei 4.4.4 10 Bit bei 98Hz Schluss ist...
Erst bei 4.2.2 10Bit 120HZ anliegen können?


Mein Displayport 1.4 bremst meinen Monitor aus
Mit HDMI 2.1 könnte ich ihn bis 4.4.4 10Bit 140HZ prügeln (womit er auch beworben wurde)

Displayport 1.4 ist zu langsam jetzt...
Wann der Nachfolger kommt, steht in den Sternen...
Das liegt nicht am displayport sondern an deiner Grafikkarte die dafür zu langsam ist 4k mit 120fps bekommst du doch garnicht mit rtx2080ti.

Gesendet von meinem D6603 mit Tapatalk
 
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Das liegt nicht am displayport sondern an deiner Grafikkarte die dafür zu langsam ist 4k mit 120fps bekommst du doch garnicht mit rtx2080ti.

Gesendet von meinem D6603 mit Tapatalk

Omg

Was hat das Eine mit dem anderen zu tun?

Es geht um die Verbindung zwischen PC und Monitor!
Nicht um die FPS in einem Spiel...

auch eine auf 100000000GHz getaktete 2080ti, wird über Displayport 1.4 nicht mehr als 98 Bilder pro Sekunde bei 4:4:4 10Bit an den Monitor schieben können.
Oder 120 bei 4:2:2 10 Bit

Displayport ist seit Jahren veraltet und bremst HIGHEND MONITORE aus.

DP 1.5 wird zumindest noch nicht in diesem Jahre in Monitoren oder Grafikkarten verbaut.

HDMI 2.1 - das ab diesem Jahr verbaut wird, ist JETZT das schnellste
 
Zuletzt bearbeitet:
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Omg

Was hat das Eine mit dem anderen zu tun?

Es geht um die Verbindung zwischen PC und Monitor!
Nicht um die FPS in einem Spiel...

auch eine auf 100000000GHz getaktete 2080ti, wird über Displayport 1.4 nicht mehr als 98 Bilder pro Sekunde bei 4:4:4 10Bit an den Monitor schieben können.
Oder 120 bei 4:2:2 10 Bit

Displayport ist seit Jahren veraltet und bremst HIGHEND MONITORE aus.

DP 1.5 wird zumindest noch nicht in diesem Jahre in Monitoren oder Grafikkarten verbaut.

HDMI 2.1 - das ab diesem Jahr verbaut wird, ist JETZT das schnellste
Displayport 1.4a kann auch schon länger 8k.

Wo sollte das dann nicht ausreichen für 4k und 120hz.



Gesendet von meinem D6603 mit Tapatalk
 
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

DP1.5 wurde bereits zur CES2018 angekündigt (s.o.), dass wird also sicher dieses Jahr in Produkten zu finden sein.

Ach... der, der nicht den besten Monitor kaufen würde, auch wenn es ihn mit 27 Zoll gäbe, weil TV draufsteht.

In WAS für Produkten bitte?

Das, was für dich ein Monitor ist, da reicht die nächsten Jahre DP 1.4 und HDMI 2.0

Exoten wie X27 X35 werden über Jahre Exoten bleiben - auch wegen Preisen jenseits von 1000€ 1500€
Und NUR Solche laufen über dem Limit von DP 1.4 und HDMI 2.1... und das ändert sich NICHT in den nächsten Jahren

Also ... WAS für Produkte kommen, die DP 1.5 verbaut haben werden, aus was für einem Grund?

Popelige 1440p Teile 1080p ohne HDR
Und nein, Monitore ohne FALD unter 2000€ auf denen ein dummer HDR Sticker klebt und Windows 10 HDR angibt, sind nicht annähernd echte HDR Monitore

P.s.

Und als der X27 auf der CES vorgestellt wurde, hattest du wohl nichtmal Haare am Sack :)

Gerade in diesem Bereich, dauert es oft noch Jahre, bis man etwas wirklich kaufen kann.
 
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Z.B wäre ein 30" 5K (5120x2880) IPS-Monitor mit 90 oder 120 Hz denkbar.
Dazu schöne 10 Bit Farbtiefe.
 
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Ich denke mal auch das man max. 2080 Ti Leistung matchen wird. 16 GB wären hingegen ein echter Fortschritt für uns. Man kann aber nicht erwarten das AMD wie Karten zum Preis einer 5700 XT verschludert.
 
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Das nicht, aber die RX5700 XT wird sicher etwas im Preis fallen, allein weil sie dann nicht mehr die schnellste AMD-Karte ist.
 
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Displayport 1.4a kann auch schon länger 8k.

Wo sollte das dann nicht ausreichen für 4k und 120hz.



Gesendet von meinem D6603 mit Tapatalk

*zensiert* Oder bist du wirklich so langsam?

Habe ich doch geschrieben... Weil DP 1.4 für 4:4:4 10Bit HDR 120 Hz einfach nicht gemacht ist... ZU LANGSAM IST... nur bis 98HZ geht

Erst 4:2:2 10BIT HDR mit 120HZ gehen der Monitor aber bis 140 sogar könnte! Wenn DP 1.4 nicht wären

4:2:2 8Bit gehen 140HZ - OHNE HDR ABER



INU-Edit: Bitte mal auf die Wortwahl achten.
 
Zuletzt bearbeitet von einem Moderator:
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Habe ich doch geschrieben... Weil DP 1.4 für 4:4:4 10Bit HDR 120 Hz einfach nicht gemacht ist... ZU LANGSAM IST... nur bis 98HZ geht
Die Verbreitung von Auflösungen über 1440p hinkt zwar auch wegen mangelnder Übertragungsleistung hinterher, genauer gesagt abseits Bastel-Lösungen wie mehreren zusammengefügten Panels mit 2 HDMI- oder DP-Anschlüssen, aber auf der anderen Seite nutzen gefühlt 90% der Gamer Auflösungen bis 1440p. Die restlichen paar Prozent, die nativ 4k nutzen, sind bestimmt froh unter hohen Einstellungen überhaupt noch über 60 fps zu kommen. Mag sein, dass die Verbreitung von 4k in Foren wie diesem hoch ist, allgemein ist die Verbreitung immer noch niedrig.

So gesehen ist das keine Frage mehr der benötigten technischen Umsetzung, sondern eher die alte Frage, ob man sich in dem Sinne auf Qualität oder Quantität konzentrieren möchte, da beides gleichzeitig nicht existiert. Man könnte auch einfach mit 98 Hz zufrieden sein, da wahrscheinlich weniger als 1% der Nutzer gewillt sind für solche hohen Auflösungen mit hohen Wiederholfrequenzen und HDR überhaupt die Kosten zu tragen, selbst wenn sie das Geld haben.

Diese Entscheidung fängt oftmals bei den Einstellungen der Software an, geht über die genutzte Hardware (CPU, GPU, RAM...) und endet bei den entsprechenden Übertragungen der Grafikkarte zum Monitor (1440p mit hoher Wiederholfrequenz oder hohe Auflösungen).
Kurz: Zu wenige Käufer haben diese Bedürfnisse, daher werden diese von den Herstellern nicht befriedigt oder Mondpreise verlangt.

Ich denke mal auch das man max. 2080 Ti Leistung matchen wird. 16 GB wären hingegen ein echter Fortschritt für uns. Man kann aber nicht erwarten das AMD wie Karten zum Preis einer 5700 XT verschludert.
Ich bin mir nicht sicher, aber die Leistung einer 2080 Ti ist vielleicht etwas zu hoch gegriffen. Vielleicht wäre es sogar möglich und ich versuche nur realistisch zu bleiben (keine Erwartung = keine Enttäuschung), aber theoretisch reicht es zum Preis unterhalb der RTX 2080 etwas mehr Leistung und Speicher als eben diese plus Raytracing bieten zu können.

Ich bin zwar als Bastler (Firmware und Undervolting) und auch aufgrund der meist sehr guten Leistung für die jeweiligen Preise eher AMD zugeneigt, aber ich finde eine RX 5700 XT für 400€ nicht verschludert. Ich sage zwar selbst, dass Raytracing zuviel Leistung kostet bzw. nur ein tragender Effekt zu gleichen Zeit aktiv ist (Schatten oder Spiegelung oder Licht), aber mehr als 400€ würde sogar ich heute nicht mehr für eine Grafikkarte ohne Raytracing ausgeben. Da könnte man sich auch eine RTX 2070 ohne Super holen.
 
Zuletzt bearbeitet:
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Also wenn der Chip so groß wird, gibt's doch sicherlich auch viel "Ausschuss",
ergo müssten da noch irgendwas um die 1-3 Kleinere Modelle in der Mache sein?!

Ich würde sagen: 2020 wird spannend :daumen:
 
Zuletzt bearbeitet:
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

@BraveNeo:
"Zuerst muss man sich an der Radeon7 messen und die wird man sicher locker überbieten."
Kein Kunststück, denn bspw. eine Sapphire RX 5700 XT Nitro Plus erreicht jetzt schon mit ihrem High-BIOS-Setting eine Radeon VII und ist verlusttechnisch dennoch genügsamer (256 W ggü. 289 W). Eine Radeon VII zu übertreffen kann also nicht das Ziel sein.

"Für nVidia selbst wird es immer schwieriger ..."
Warum sollte es das? nVidia hat nach wie vor die effizientere Architektur und jetzt könnten sie im einfachsten Fall gar nur einen Turing-Shrink im N7P oder N7+ anbieten und würden damit beträchtliche Power-Savings verbuchen können.
Navi 10 (mit der RX 5700 XT) und die RTX 2070 (Super) sind beide recht gut vergleichbar. Beide (bzw. alle drei) Karten werden direkt gegeneinander positioniert, erreichen eine vergleichbare Grafikleistung, haben vergleichbar komplexe Chips und verbrauchen grob gleich viel. Der wesentliche Unterschied ist, dass AMD dieses Leistungsniveau mit Navi 10 nur unter Zuhilfenahme von TSMCs modernem N7 zustande bringt, während nVidia weiterhin mit 12 nm fertigt.
TSMC gibt im Vergleich von seinen 10 nm auf 7 nm (N7 bzw. 7FF) bis zu 40 % power savings und über 35 % area savings an und nVidia nutzt sogar nur deren aktuellen 12 nm-Prozess, d. h. ein Navi 10 gefertigt in 12 nm müsste einen beträchtlich höheren Verbrauch hinnehmen, was seine geringere Effizienz offenkundig werden lässt. AMD vergleicht nicht ohne Grund die erzielten Fortschritte bei Navi gegen seine eigenen Vorgängerarchitekturen und nicht etwa gegen die Konkurrenz.

Zudem kann man bei nVidia davon ausgehen, dass der Turing-Nachfolger nicht nur ein Shrink wird, sondern durchaus auch architektonische Verbesserungen aufweisen wird. Konkret wird hier von einer deutlich besseren Raytracing-Performance gemunkelt. Das sagt bisher nicht viel aus, deutet aber schon an, dass es für AMD weiterhin schwer bleiben wird, am Ball zu bleiben.

"Das wird auch im HPC Bereich von Bedeutung sein."
Eher weniger. Das Design wird dann für Consumer- und Radeon Pro W-Karten genutzt werden. Im HCP-Bereich geisterte zuletzt Arcturus durch den Äther, ein spezifisch darauf angestimmtes Design, was auch nicht verwundern sollte, denn AMD kann es sich bei der aktuellen Marktentwicklung (BigData, ML/DL) nicht mehr leisten, alle Märkte mit nur einem Design erschlagen zu wollen. Ein dediziertes HPC-Design ist hier unumgänglich.
Und dieses muss spätestens 2021 marktreif sein für den Frontier, wobei noch abzuwarten bleibt, ob man ggf. schon in 2020 ein erstes Design (Update der Instinct-Serie) veröffentlichen wird und die Frontier-GPGPUs dann vielleicht schon auf einer weiterentwickelten Variante basieren werden.

@KuroSamurai117:
"Eine Ampere Ti kommt dann wenn Nvidia sie für die Leistungskrone benötigt."
nVidia wird mit sehr hoher Wahrscheinlichkeit direkt zu Beginn mit einer RTX 3080 und RTX 3080 Ti am Markt erscheinen. Die Ti jetzt wieder zu streichen und erst später rauszuholen, wird markttechnisch nicht mehr gehen. Bei Turing war ein direkter Launch erforderlich, weil die Turing-Verbesserungen primär auf die Tensor und RT Cores abziehlten, d. h. die gemäß der normalen Rasterizer-Leistung erziehlten Zugewinne der neuen Generation waren (relativ gesehen) zu gering, sodass man die Ti direkt mitveröffentlichen musste, weil man sonst keinen Wow-Effekt gehabt hätte (insbesondere nicht unter Verwendung von Raytracing).
Eine mögliche RTX 3080 wird ggf. eine RTX 2080 Ti leicht übertreffen, aber zweifelsfrei nicht weit hinter sich lassen, d. h. ein Release der neuen Generation wäre ohne eine RTX 3080 Ti vergleichsweise langweilig/unspektakulär und daher vermarktungstechnisch problematisch. (Betrachtungen zu Raytracing mal außen vor gelassen, da man aktuell nicht abschätzen kann, wie sich das hier entwickeln wird und was von nVidias Zusagen zu bedeutend "mehr RTX-Leistung" zu halten ist.)

@sandworm:
Diverses Die-Spekulatius ...
Zu viel würde ich hier nicht erwarten. Die 505 mm2 klingen zwar erst mal nach viel, können aber sicherlich nicht direkt übertragen werden und der Verbrauch stellt hier klar einen limitierenden Faktor dar.
Gleicht man eine Radeon VII und Navi 10 leistungstechnisch an, indem man das High-BIOS der Sapphire RX 5700 XT Nitro Plus verwendet, so hat man bei der Vega 20 rd. 4,82 W/CU und bei Navi 10 6,40 W/CU. (Beide Karten laufen mit um die 1,7 GHz wobei die Sapphire im Peak mit dem High-BIOS bis zu 300 MHz mehr Boost erreicht, aber auch nur kurzzeitig.)

Die Berücksichtigung einer höheren Logikdichte kann man durchaus außen vor lassen, denn einerseits bietet nur der N7+ diese und auch nur im überschaubaren Rahmen (bestenfalls 17 - 20 %) und andererseits ist eine Erhöhung auch mit dem N7+ nicht zwingend garantiert, denn das Design einer GPU mit ihren vielen parallel laufenden Rechnenwerken setzt andere Limits als eine CPU oder gar DRAM. Vereinfachend könnte man eine minimale Steigerung auf 42 MTr/mm2 annehmen (ggü. 41 bei Navi 10 und 40 MTr/mm2 bei Vega 20). Abgesehen davon wäre auch gar eine Verringerung der Dichte zwecks höherer Leistung nicht abwegig ... hier wird man sich vorerst mit der Ungewissheit arrangieren müssen. ;-)

Sollten die 505 mm2 tatsächlich zutreffen, würde das auf 21,2 Mrd. Transistoren hinweisen.
Rechnet man unveränderte "Navi 10 CUs" auf diese Transistorzahl um, so käme man auf gut 82 CUs. Eine Anzahl, die bei hohem Takt zu 525 W führen würde. Selbst wenn man sehr optimistische power savings von 20 % anrechnet (bspw. 10 % vom Prozess und 10 % architektonisch) käme man immer noch auf 420 W, einen Wert, der nach aktueller Marktlage so nicht mehr als Produkt angeboten werden wird.
Wenn die CU-Anzahl halbwegs zutreffen sollte, müsste also der Takt deutlich sinken und zudem berücksichtigten die bisherigen Betrachtungen noch nicht einmal Raytracing. Wahrscheinlicher ist jedoch meiner Meinung nach eine deutlich geringere CU-Anzahl.

Hinzu kommt, dass man noch gar nicht abschätzen kann, welchen zusätzlichen Flächen/Transistoraufwand die Neuerungen von RDNA2 inkl. Raytracing benötigen werden. Beispielsweise im Mittel benötigen die CUs von Navi 10 bereits 25 % mehr Transistoren als die CUs von Vega 20.
Hinzu kommt, dass man auch nicht weiß, wie genau AMD Raytracing implementieren wird. Bei nVidia (die ihre RT Cores im Detail nach wie vor nicht offengelegt haben), gehe ich davon aus, dass diese sogenannten "RT Cores" über keine eigenen Funktionseinheiten für die Intersection-Berechnung verfügen, sondern die FP32-Einheiten der SMs oder aber die Tensor-Cores (FP16) mitverwenden. Wenn AMD hier bspw. jedoch dedizierte Recheneinheiten zur Verfügung stellt, weden sich die CUs insgesamt deutlich vergrößern, zumal eine grundsätzliche Vergrößerung aufgrund des notwendigerweise überarbeiteten Cache-Systems eh unausweichlich bleibt. Die Frage ist halt um wie viel Prozent.

Nimmt man +25 % an pro CU an, wovon ein wesentlicher Teil wohl auf Raytracing zurückzuführen sein wird, kommt man in etwa bei 65 CUs raus, sodass erneut ein 64 CUs umfassendes Design nicht warhscheinlich erscheint.
Wenn AMD architektonisch an der Effizienz jedoch nicht übermäßig schrauben kann und davon gehe ich bei RDNA2 aus (weil man Navi 10 nicht künstlich ineffizienter gemacht haben wird), wird dennoch ein leicht niedrigerer Takt notwendig sein und man wird dennoch eine 300+ W-Karte erhalten. Das High-BIOS der Sapphire RX 5700 XT Nitro Plus kann man hier nicht mehr als Ableitungsbasis heranziehen; der reguläre Verbrauch im Gaming liegt bei 226 W gemäß Igor. Veranschlagt man hier dann +15 % power savings durch den Prozess und die "neue" Architektur, so käme man auf 307 W ohne nennenswerte Raytracing-Nutzung für ein derartiges 64 CU-Design.

Am Ende vielleicht alles nur ein Griff ins Klo von mir? Ich bin auf jeden Fall gespannt, was AMD hier präsentieren wird und es bleibt zu hoffen, dass man nVidia zumindest etwas die Stirn bieten wird im neuen Jahr.
 
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

Also wenn der Chip so groß wird, gibt's doch sicherlich auch viel "Ausschuss",
ergo müssten da noch irgendwas um die 1-3 Kleinere Modelle in der Mache sein?!

Ich würde sagen: 2020 wird spannend
daumen.gif
Stimmt, mindestens ein Modell ohne XT wird es geben müssen, aber bei der Chipgröße kann man vielleicht auch auf eine günstige LE hoffen (wie damals die HD 5830).
Ich hatte auch schon einige Nvidia-Karten, aber mich stört selbst als Käufer, der gerne zum Underdog greift, bei den aktuellen AMD-Modellen, dass ein Chip, der sich "XT" nennt, mit 8 GiB VRAM ausgestattet ist und immerhin über 200€ kostet kein verbreitetes PCIe 3.0 16x bietet und es zukünftig evtl. eine GPU in Form der 5600 XT geben wird, die auch 5700 LE heissen könnte, aber mit weniger Shadereinheiten (vielleicht mit 4x8x64 Shader) und dafür vollen 8 statt 6 GiB besser dran wäre (von mir aus auch 12 Gbit/s).
Navi 10 (mit der RX 5700 XT) und die RTX 2070 (Super) sind beide recht gut vergleichbar. Beide (bzw. alle drei) Karten werden direkt gegeneinander positioniert, erreichen eine vergleichbare Grafikleistung, haben vergleichbar komplexe Chips und verbrauchen grob gleich viel. Der wesentliche Unterschied ist, dass AMD dieses Leistungsniveau mit Navi 10 nur unter Zuhilfenahme von TSMCs modernem N7 zustande bringt, während nVidia weiterhin mit 12 nm fertigt.
Vollkommen richtig, wobei ich anhand der RX 5700 zur 5700 XT sagen muss, dass diese mit paar MHz weniger und dafür weniger Spannung nochmals hätte effizienter laufen können (aber dann wäre sie bzgl. Marketing nicht die paar Prozent über der 2070 ohne Super). Die Marketingleute machen einem aber auch alles kaputt... :D
 
Zuletzt bearbeitet:
AW: Navi 21: Chip mit über 500 mm², Tape-Out bereits erfolgt

LG C9, der besseren Input Lag hat als 99% der Monitore.
Schreibe dir die Specs hin:

Gsync
12 ms bei 60Hz
6 ms bei 120 HZ Inputlag
Black Frame Insertion
HDR 1000
Dolby Vision
Dolby Atmos


Preis wird unter 1000 sein, im Herbst dann schon 700 und weniger.
Input Lag 6ms...

Und was?
Was bitte fehlt dir?
DisplayPort was?

Wenn hdmi 2.1, der jetzt schnellere Standard ist und GPUs ab 2020 den endlich verbauen.

Danke für deinen enthusiastischen Vorschlag.
Werde ich mit Sicherheit kaufen, wenn LG das in 32 Zoll Größe für den Desktop anbietet.
Sollte ja nicht mehr ewig dauern.
 
Zurück