B
BraveNeo
Guest
Damit schießt du den Bock ab!Warum soll es nicht 50% mehr Leistung bei gleichem Strombedarf geben?
Seit wann rechnet man die Effizienzsteigerung zur Leistungssteigerung dazu?
Damit schießt du den Bock ab!Warum soll es nicht 50% mehr Leistung bei gleichem Strombedarf geben?
Seit wann rechnet man die Effizienzsteigerung zur Leistungssteigerung dazu?
Die gleiche Einstellung hatte Intel auch in den letzten Jahren...
Wenn es durch deutlich, deutlich ...deutlich bessere Darstellung auf einem UHD HDR TV subjektiv besser ausschaut und um die zu zitieren - in "RDR2" macht es absolut den Kohl nicht fett auf 30FPS zu spielen - dann ist das keinen Deut schlechter als "echtes 4k@60FPS" das dank Stillstand in der Monitorsparte aussieht als würde ich mit einem Beamer auf ein Bettlaken projizieren statt auf eine Leinwand. Und gerade RDR2 sieht in "schlecht" auf der OneX fantastisch aufm LG OLED aus...auf 400€ Hardware die man bestenfalls noch in Waschmaschinen verbaut Ich will mir gar nicht ausmalen was die aus ner Ryzen Navi Kombo rausholen.Genau, im Vergleich zur PC Fassung deutlich niedrigere Settings (am Bsp von RDR2 sogar teilweise unter low), oft/meist kein natives 4k sondern Checkerboard-Rotze und so gut wie immer 30fps lock... All das ist also kein deut schlechter als high-ultra, echtes 4k und 60fps?
Die gleiche Einstellung hatte Intel auch in den letzten Jahren...
Ich hoffe, dass AMD auch NVidia mal einen vor den Latz haut, wird Zeit, dass NV vom hohen Ross wieder runter kommt.
Sooo berauschend ist deren aktuelle Technik auch nicht mehr, die letzten Jahre ist da auch nicht viel passiert.
Und Raytracing steckt auch bei denen noch in den Kinderschuhen, da ist noch sehr viel Luft nach oben, seeeehr viel sogar!
Naja, Nvidia braucht sich im Segment ab 2080 nicht wirklich zu beeilen.
Bis Amd da einen Konkurenz aufstellen kann, wird es bestimmt noch 1-2 Jahre dauern.
Aber natürlich sollte Nvidia schon etwas in der Hinterhand haben, damit es ihnen nicht wie Intel ergeht.
Nvidia hat diese Probleme nicht und hat noch dazu die weit überlegene Architektur.
Computrebase schrieb:Da staunt man nicht schlecht: Obwohl Nvidia mit Maxwell und Turing große Leistungssprünge pro Shadereinheit gemacht hat, schafft es AMD mit RDNA im Durchschnitt gar ein Prozent besser abzuschneiden – der Satz ist dementsprechend riesig und beeindruckend.
Naja so weit erscheint die Überlegenheit seit RDNA auch nicht mehr: AMD Radeon RX 5700 und RX 5700 XT im Test: Architektur-Vergleich, Preis-Leistung, Custom Designs (Update) - ComputerBase
Sehr gut zu sehen was man an Immersion hinzugewinnt. Das Ultradetails unter 1080p immer das bessere Ergebnis liefern, hat Nvidia mit RTX manifestiert und brennt sich langsam in die Köpfe ein.
Eine 1080ti kann noch lange genug eine verdammt gute Karte sein, einfach mal die Regler nach links schieben und die Möglichkeit nutzen die höhere Auflösung zu genießen wenn man kann.
So, ich dachte man nutzt den Prozess von Samsung und nicht von TSMC?
Quellen dazu, dass man sich hinten anstellen muss?
Sollte Nvidia die neue Generation schon in rund nem halben Jahr auf den Markt werfen, dürfte AMD wieder keine Chance haben.
Rechnet man mal +50% mehr Performance und auch etwa 50% mehr Effizienz als Erwartunshaltung ein, dann ist Big Navi, wenn er denn mal herauskommt, schon bei Launch weit unterlegen. Big Navi dürfte es schwer haben an einer 2080 Ti vorbeizukommen und wird hinsichtlich Effizienz und Leistung im besten Fall nur auf Augenhöhe mit der alten Nvidia Generation mitspielen können. Eine 5700XT + 50% Leistung dürfte alleine schon aufgrund des Stromverbrauches sehr knapp werden.
AMD wird bei den GPU´s 2020 keine Chance haben und nur über den Preis verkaufen können, das ist so sicher wie das Amen in der Kirche.
Aber der Kunde hat natürlich nichts davon, wenn Big Navi dann mit einer 3060 kämpfen muss.
Wenn dem so wäre wieso hauen sie nicht so bald wie möglich einen 6000 Shader Chip raus und stampfen den TU-102 in den Boden?
Damit schießt du den Bock ab!
Wenn dem so wäre wieso hauen sie nicht so bald wie möglich einen 6000 Shader Chip raus und stampfen den TU-102 in den Boden? Ganz einfach weil sie es nicht können, mit einer Menge Glück wird Big Navi irgendwo in die Nähe einer 2080 Ti kommen, während der große Ampere Chip die Big Navi mithilfe von 7nm in den Boden stampfen wird, wie schon seit Jahren, seit der 290x ist AMD im High End Bereich nicht mal mehr im Ansatz konkurrenzfähig, es wird von Generation zu Generation schlimmer für AMD, mit der Fury X und der Vega 64 gab es immerhin noch das Ziel die großen Nvidia Chips zu erreichen, mit dem sind sie bekannterweise kläglich gescheitert, bei der 7ner konnten sie es trotz 7nm nicht mal mehr versuchen, weil sie bereits so weit hintendran sind, Big Navi wird im Vergleich noch schlechter abschneiden.
Er rechnet die Effizienz halt nicht mit Leistung/Watt aus...
sondern mit Lederjacken/Kühen. Sonst wüsste er ja wohl, dass die Effizienz steigt, wenn die Leistung steigt
und die Leistungsaufnahme (nicht Strombedarf) gleicht bleibt.
Wenn so eine kommen sollte, dann wird selbst eine 3080Ti ziemlich klein dagegen aussehen.
Sowas wie damals mit "Poor Volta"?Hast du die ganzen Ankündigungen zu AMD Big Navi verpasst?
Weil der Markt danach schreit und die Leute die 3000er Generation kaufen wollen.Warum sonst will NVidia zum gleichen Zeitpunkt mit Ampere kontern?