Seite 11 von 20 ... 789101112131415 ...
  1. #101

    Mitglied seit
    22.03.2013
    Beiträge
    3.185

    AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

    Zitat Zitat von Sinusspass Beitrag anzeigen
    Naja, wenn eine Technologie in kurzer Zeit das Nonplusultra wird, wäre es natürlich dumm, noch eine Karte zu kaufen, die das nicht kann.
    RT hat diesen Stand allerdings noch lange nicht erreicht, auch wenn Jensen das sicher gerne gesehen hätte. Es ziehen aber noch paar Jahre ins Land, und es gibt Leute, die nicht mit jeder Generation aufrüsten. Wie wichtig RT in Zukunft wird, sieht man gut daran, dass auch die Konkurrenz flächendeckend RT verwenden will.
    Von daher, das hat schon alles seinen Sinn, wenn man halbwegs langfristig aufrüsten will. Klar hätte eine 2080ti ohne RT und mit mehr Shadern bei deaktiviertem RT bzw. Titeln ohne RT-Support mehr geleistet, bei zukünftigen Titeln mit RT sähe die Lage anders aus.
    RT wird erst dann wirklich interessant, wenn wirklich alle Karten es performant in der Mainstream Auflösung beherrschen.
    Aktuell gibt es keine einzige Karte im Preisbereich bis €300, die überhaupt RT unterstützt (die 2060 tanzt gerade genau auf dieser Grenze).
    Ab €300 gibt es aktuell zwar RT, aber eher als Gimmick.
    Als Jensen diese Aussage traf, gab es keine einzige Karte, die der €300 Marke wirklich nah war und RT beherrschte.
    Damit hatte er quasi den absoluten Großteil der Spieler mal eben für verrückt erklärt.

    Ich gehör auch zu den Verrückten, die meinen, RT lohnt sich erst in 2-3 GPU Generationen wirklich.
    Bis dahin nehme ich gern die deutlich günstigere Version ohne RT.
    Da mein Preislimit eh bei €400 liegt, bin ich bei RT so, oder so noch eine ganze Weile raus.
    Mir ist das Hobby Gaming einfach nicht mehr wert, um Einzelkomponenten jenseits dieser Grenze zu kaufen.

    • Bitte einloggen, um diese Anzeige auszublenden.
  2. #102
    Avatar von Sinusspass
    Mitglied seit
    04.01.2017
    Liest
    PCGH.de
    Ort
    Maifeld
    Beiträge
    1.763

    AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

    Ich glaube, wir agieren in anderen Preisbereichen. Mir sind alle Karten unterhalb der Oberklasse recht egal.
    Dass sich RT derzeit nicht lohnt, würde ich für mich aber auch unterschreiben, ich habe nicht ein Spiel, was es unterstützt.
    Ryzen 7 2700@4,2Ghz/H2O | Asrock X470 Taichi Ultimate | 64Gib@DDR4-3200 | 2x ASUS Strix 2080ti@2115/8300Mhz/H2O

  3. #103
    Avatar von HardwareHighlander
    No Adblocker!

    Mitglied seit
    28.04.2019
    Beiträge
    2.432

    AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

    Zitat Zitat von Khabarak Beitrag anzeigen
    RT wird erst dann wirklich interessant, wenn wirklich alle Karten es performant in der Mainstream Auflösung beherrschen.
    Bis alle Karten es performant in der Mainstreamauflösung unterstützen, kannst du noch von 5 Jahren ausgehen, da man hier auch von der Einsteigerklasse um 100 bis 150 Euro ausgehen muss.
    Interessanterweise werden bei dir AMD Features wesentlich schneller relevant, ich erinnere mich da noch an einige Diskussion diesbezüglich.^^

    Zitat Zitat von Khabarak Beitrag anzeigen
    Aktuell gibt es keine einzige Karte im Preisbereich bis €300, die überhaupt RT unterstützt (die 2060 tanzt gerade genau auf dieser Grenze).
    Nur unterstützt selbst eine GTX 1060 DXR RT.

    Zitat Zitat von Khabarak Beitrag anzeigen
    Ab €300 gibt es aktuell zwar RT, aber eher als Gimmick.
    Bei AMD wäre es ein Killer-Feature.

    Zitat Zitat von Khabarak Beitrag anzeigen
    Als Jensen diese Aussage traf, gab es keine einzige Karte, die der €300 Marke wirklich nah war und RT beherrschte.
    Das war im Sommer, da gabs die RTX 2060 schon oft für 300.

    Zitat Zitat von Khabarak Beitrag anzeigen
    Damit hatte er quasi den absoluten Großteil der Spieler mal eben für verrückt erklärt.
    Ne, er hat gemeint, dass es verrückt wäre eine GPU, mit dem Fokus auf die nächsten 1 bis 4 Jahre ohne RT zu kaufen.
    Exemplarisch RTX 2070 vs 5700XT, das verrückt ist lediglich eine typische Marketingzuspitzung.
    Aber im Grunde gebe ich ihm recht, ein Produkt mit RT Option ist besser als eins ohne.

    Zitat Zitat von Khabarak Beitrag anzeigen
    Ich gehöre auch zu den Verrückten, die meinen, RT lohnt sich erst in 2-3 GPU Generationen wirklich.
    Na dann wirst du ja mit AMD demnächst gezwungen eine Karte mit RT zu kaufen.
    Alsbald wird es gar keine mehr ohne geben, schon gar nicht in 2 bis 3 Generationen.

    Zitat Zitat von Khabarak Beitrag anzeigen
    Bis dahin nehme ich gern die deutlich günstigere Version ohne RT.
    Gibts ja nicht.

    Zitat Zitat von Khabarak Beitrag anzeigen
    Da mein Preislimit eh bei €400 liegt, bin ich bei RT so, oder so noch eine ganze Weile raus.
    Die 2070 gibts unter 400 Euro.
    Aber ich verstehe dieses Bedürfnis nach dieser Anti-RT- Grundagitation bei dir nicht.
    Highlander Sys: 2x Nvidia Titan RTX 24GB| i9 9900KF | 64GB G.Skill TridentZ 3466 CL14 | MSI Z390 | 240 Hertz Lenovo Y27gq
    Midlander Sys: Ryzen 7 3700x | Palit RTX 2080 Ti | 64GB DDR4 3200 CL 16
    Stablelander Workstation: Ryzen 9 3950x @65Watt | RX 5700XT UV | 128GB DDR4 3466 CL14
    Highlandish HMX Pro Workstation: Ryzen 2990WX | MEG X399 Creation | EKWB TR4 RGB WaKü | Corsair Dominator 128GB | 2x Radeon Vega Frontier









  4. #104
    Avatar von RX480
    Mitglied seit
    28.08.2018
    Beiträge
    6.730

    AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

    Zitat Zitat von HardwareHighlander Beitrag anzeigen
    Bei AMD wäre es ein Killer-Feature.
    ....
    Na dann wirst du ja mit AMD demnächst gezwungen eine Karte mit RT zu kaufen.
    Weil der Ansatz bei AMD flexibler ist wird sicher auch mehr Leistung mit RT off hängen bleiben.

    Die Gerüchte zur PS5 klingen derzeit ganz gut: Es hat wohl/hoffenlich jemand mit Devkit geplaudert.
    AMD's RDNA 2 architecture will deliver major performance/efficiency improvements - Rumour | OC3D News

    Zitat Zitat von Da_Obst Beitrag anzeigen
    Mei. ^^
    Aber eine 2080 wär mir eh zu teuer für die Mehrleistung. Und wenn, dann würde ich in diesem Segment eher zur 1080Ti greifen.
    Das war nur ein Scherz, weil Orca "GTX"2080 geschrieben hatte.
    Geändert von RX480 (14.01.2020 um 11:14 Uhr)
    "VEGA" RX56cf@ C32HG70-HDR

  5. #105
    Avatar von Prozessorarchitektur
    Mitglied seit
    12.04.2008
    Liest
    PCGH.de & Heft
    Ort
    521
    Beiträge
    9.519

    AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

    Mining war sehr wohl der Preistreiber von 8/17 bis 2/18
    Die angeblichen 15% kommen von einen COO von amd um die realen Vorbestellungen zu vertuschen.man hat sich extrem verkalkuliert vornehmlich die aib.
    Polaris rx580 ind 570 war von august 17 bis märz 18 kaum bis gar nicht lieferbar.
    Und glaubt mal nicht das dies an Beliebtheit bei Normalen kunden war dafür ist die Verbreitung von polaris zu gering (laut steam)
    Das lief so ab
    Man war überrascht das man eine neue Einnahmequelle bei Consumer gpu gab und die produzierten chips nicht ausreichen um der nachfrage zu stillen
    Dafür muss man wissen das man Kapazitäten bei amd (glofo)wafer und ram min 3 Monate im voraus bestellen muss also etwa max 4 Monate Vorlauf
    Also man hat die Bestellungen erhöht bei amd und nvidia chips beide hatten deutlich höherer nachfrage wobei nvidia kaum Lieferprobleme hatte.
    Nur war das mining eine Kurze Erscheinung weil im voraus klar war das man auf asics umstellen wird. Das wusste man schon im Sommer 2017.
    Also vor der Mining blase
    es lief bis Januar 2018 alles gut und dann kam der absturz des Kurses und die Umstellung auf asics
    Diese kann man mit gpu nicht berechnen.Folgend amd sowie nvidia saßen mit zu vielen produzierten chips im lager
    Da gab es 2 Möglichkeiten
    Abschreiben und somit Milliarden Verluste
    Oder geplante neue gpu gen verschieben was nvidia gemacht hat.
    Und die Chips quasi ausverkaufen lassen
    Nvidia hat das geschafft weil sie die neue GPU gen einfach extrem überteuert verkauft hat.
    AMD hat es nicht geschafft und musste quasi die chips verschenken an die aib
    Das nach 3 Jahren immer noch polaris 20 chips gibt zeigt deutlich das man zuviel wafer bestellt hatte.
    Daher wird es noch was dauern bis endlich polaris 20 eol wird.
    Auch ein Grund warum am navi10 und 14 überteuert und verzögert gebracht hat. damit endlich die Restbestände weg sind.
    Ist dies mal geschafft vermutlich Sommer 2020
    Wird es zeitgleich zu Konsolen Vorstellung deutlich bei den Gpu preisen fallen und neue gen von nvidia und amd geben quasi zeitgleich
    amd vermutlich august 20 auf der gamescom
    nvidia Vorstellung der arch März zur gtc Veröffentlichung zur E3
    Zwar würde mir eine zeitgleiche Vorstellung der einsteigermodelle also zur computex gefallen (mai)
    Das würde die situation von 2016 nachstellen.
    Leider spricht aktuell nichts dafür. Der big navi chip gibt es wird aber vor ende 2020 nicht kommen.
    Sony stellt eventuell die ps5 schon im feb 2020 vor
    Was ein relaese vor der e3 wahrscheinlich macht
    MS stellt dagegen die XSX vor zur e3
    Wer die specs kennt wird feststellen das man eine rx5700 und rtx2080 nicht mehr für 350€ und 700€ verkaufen kann. Und min 12gb vram pflicht sind
    Also passt der release der rtx3080 rtx3070 rtx3060 zur e3 bis august 2020
    Amd wird vermutlich rx6600 rx6700 Anteasern und die rx5700xt rx5600xt im preis deutlich senken.
    Wenn es schlecht läuft wird amd mehr vram freigeben für navi10 (12-16gb)
    Das würde nur dann passieren wenn rdna2 sich verspätet, amd typisch eben
    "sickenes often ,often attends me,I'm ruled by pain.torture memories burned my brain,oh make it end,killed for nothimg killed by no one ,I was just a boy.Weak and lonely, cold and bloody. Give me a hand" von mdb.PC Spiele sind keine Wegwerfprodukte
    cI7 5820k, X99a raider, 16GB DDR4 2400, GTX1060 6GB vram Non OC
    "the things I've been through they torture me but I need them, for they are me"

  6. #106

    Mitglied seit
    22.03.2013
    Beiträge
    3.185

    AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

    Zitat Zitat von Sinusspass Beitrag anzeigen
    Ich glaube, wir agieren in anderen Preisbereichen. Mir sind alle Karten unterhalb der Oberklasse recht egal.
    Dass sich RT derzeit nicht lohnt, würde ich für mich aber auch unterschreiben, ich habe nicht ein Spiel, was es unterstützt.
    Das kann durchaus sein.
    Ich hab mir mal ein Preislimit gesetzt.
    Anno 2014 reichte es für eine R9 290 (zu dem Zeitpunkt die drittschnellste Karte am Markt - vor dem 980 Release).
    Aktuell reicht es für Rang Nr. 5... (Ein wenig Nvidia Hausgemacht, da sie die 2080 und 2070 je in 2 Linien gespanten haben)


    Dabei fällt mir ein, dass es schon ein wenig schade um die 980 ist... die ist im Gegensatz zur kleinen Schwester komplett aus den Diskussionen und Berichten rausgefallen.

    Ich bin mit meinen Spielen allerdings auch in einem Bereich unterwegs, in dem RT wohl noch etwas länger auf sich warten lassen wird.
    Anno, Civ, WoW, Final Fantasy XIV, SWTOR, Indie games in 16 bit look...

    Daher wird auch meine nächste Karte wahrscheinlich ohne RT daher kommen und wieder um die 4 Jahre halten - auch wenn die 290 jetzt bald den 5. Geburtstag feiert. Die 4 GB VRAM machen sich leider immer mehr bemerkbar.
    In Civ V lassen sich die größten Mod Karten gar nicht erst laden.


    Edit:
    Zitat Zitat von HardwareHighlander Beitrag anzeigen
    Die 2070 gibts unter 400 Euro.
    Aber ich verstehe dieses Bedürfnis nach dieser Anti-RT- Grundagitation bei dir nicht.
    Die 2070 gibt es JETZT für unter €400 - allerdings bin ich kein großer Fan von Inno3D und Palit - auch wenn letztere Firma allgemein nen guten Ruf hat.
    Warum sollte ich kurz vor dem Generationswechsel noch eine 2070 kaufen?
    So bescheuert bin ich dann doch nicht.
    Meine Karte hält auch noch bis Ende 2020 durch.

  7. #107
    Avatar von -ElCritico-
    Mitglied seit
    26.06.2019
    Beiträge
    296

    AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

    Zitat Zitat von gerX7a Beitrag anzeigen
    Vielen Dank, das erklärt zumindest den Ursprung der vermeintlich maximalen 400 mm2. Wie es ChrisMK72 schon sagte, weiterhin viel "Spekulatius". Von einer derartigen Limitierung würde ich derzeit jedoch eher nicht ausgehen:

    a) Über nVidia's Chips und dessen Fertigung ist nichts weiter bekannt außer "7 nm" bei TSMC (und in kleinerem Umfang auch bei Samsung *).
    NVIDIA Taps In TSMC For Next-Generation 7nm Ampere GPUs
    Zumindest bei Samsung werden sie 7nm EUV auf jeden Fall benutzen.
    Zitat Zitat von gerX7a Beitrag anzeigen
    b) Man weiß nicht, welchen Prozess nVidia bei TSMC verwendet; es könnte der N7+ aber auch durchaus der N7P sein. TSMC fertigt bspw. mit dem Tomahawk 4 und dem QuickSilver **) zwei sehr große 7 nm-Designs, jedoch ist zu denen leider nicht bekannt, welchen Prozess die genau verwenden. Große Chips sind jedoch offensichtlich möglich und bereits der N7P als kleine Weiterentwicklung zum vom AMD derzeit genutzten N7 stellt bereits einen zusätzlichen Mehrwert dar.
    DUV kostet mehr als EUV, ob klein oder groß. Zuerst benutzt man Mischverfahren, um 3-4 Schichten durch EUV zu ersetzen, später fährt man komplett mit EUV. Momentan kommen die ASML 3rd Gen Scanner zum Einsatz, da ist 16mmx16mm das Optimum, 20mmx20mm (400mm^2) noch annehmbar, ab da wird D (defect density, Fehler/Fläche) zu groß und die Herstellung viel zu teuer für Konsumerprodukte. Die Yield-Formel abgeleitet von der Poisson-Verteilung lautet: Yield = e^(-AD) mit A=Chipfläche, D= Defekte/Chipfläche. Das ist einer der Gründe, warum die großen Turings so teuer sind. Das Hauptproblem erläutere ich bei c-d).
    Zitat Zitat von gerX7a Beitrag anzeigen
    c) Nur mal angenommen, dass die 400 mm2 als oberes Limit für den N7+ zutreffen würden, was eher unwahrscheinlich erscheint (s. u.), dann könnte nVidia bestenfalls gerade so den TU102 shrinken, müsste aber mit bestenfalls etwa der gleichen Transistorzahl auskommen. Das würde die Möglichkeit für mehr Leistung deutlich beschränken, denn der wesentliche Teil eines Leistungszugewinns kann nur aus mehr oder leistungsfähigeren Recheneinheiten folgen (also schlussendlich mehr Transistoren); die Möglichkeiten für architektonische Verbesserungen dürften dagegen vergleichsweise begrenzt sein, umso mehr, als dass Turing bereits eine Zusammen-/Weiterführung von Pascal und Volta darstellte. Aber selbst wenn, dann stünde immer noch ein N7P zur Verfügung (denn zumindest der N7(P) muss offensichtlich einen Tomahawk 4 oder QuickSilver ermöglichen, falls nicht gar mindestens einer von diesen den N7+ verwendet).

    d) Bereits der von -ElCritico- zitierte Wikipedia-Artikel weicht die Beschränkung bzgl. einer EUV-Die-Size auf und schreibt: "Large (approaching or exceeding 500 mm2) chips [...] Without field stitching, die size would be limited." Entsprechend kann man auch hier bereits größere Chips fertigen, wenn sich der zusätzliche Aufwand lohnt.
    Die Frage ist aber auch, wie aktuell und präzise dieser Wikipedia-Auszug ist. Ein Update von ASML ***) zeichnet hier ein anderes Bild. Für die aktuell genutzten 0,33 NA-Scanner gibt man eine maximale Die Size von 858 mm2 an, während man für die zukünftigen High-NA-Scanner (0,55 NA für zukünftige 3 nm-Prozesse und kleiner) nur noch bis zu 429 mm2 als Maximalgröße angibt. Einer ASML-Präsentation vom März 2019 zufolge werden High-NA-Scanner jedoch überhaupt erst ab Ende 2021 ausgeliefert. Die aktuell neuesten Maschinen vom Typ NXE:3400C, die seit Ende 2019 an Kunden ausgeliefert werden, sind weiterhin 0,33 NA-Scanner. (Denn Veröffentlichungen auf Wikichip.org würde ich in diesem Kontext mehr Vertrauen schenken.)


    Ich würde mich da zurücklehnen und mir bzgl. der (möglichen maximalen) Die-Size nicht den Kopf zerbrechen, zumal da noch viel zu viele Variablen unbekannt sind. nVidia hat zumindest "deutlich mehr Raytracing-Leistung" geteasert, was auch immer das konkret bedeuten wird und ich denke, dass man hier durchaus einige Erwartungen schüren kann, aber das ist nur meine Meinung.


    *) Im einfachsten Fall könnte Samsung für die Betrachtung einer Consumer-GPU irrelevant sein, weil nVidia möglicherweise die Consumer- und Datacenter-Designs auf die beiden Hersteller aufteilt, also den Turing-Nachfolger bei TSMC fertigen lässt und den Volta-Nachfolger bei Samsung. Hier wird man abwarten müssen. Bei Samsung inkludiert deren 7 nm-Prozess, aktuell 7LPP, auch die Verwendung von EUV für einige Schichten. Zudem stünde bei Samsung auch noch alternativ ein 8LPP zur Verfügung, der noch komplett mittels DUV arbeitet.

    **) Der Tomahawk 4 ist ein 31 Mrd. Transistoren umfassender Netzwerkchip von Broadcom und der QuickSilver ist eine sehr großer ARM-Server-CPU von Ampere Computing (80 Cortex-A76-Kerne, 8 DDR4-Speicherkanäle und 128 PCIe 4.0-Lanes auf dem SoC, das zudem in einer Dual-Socket-Konfiguration genutzt werden kann und damit auch problemlos AMDs Epyc bzgl. der Konnektivität in den Schatten stellt). Beides sind monolithische Chips die bei TSMC in 7 nm gefertigt werden.

    ***) SEMICON West 2019: ASML EUV Update | WikiChip Fuse
    Der Auszug aus dem Wikipedia-Artikel war im Bereich Throughput-scaling limits ( Durchsatz und Skalierung), ich habe den Artikel zur Hand genommen, weil es dort gut erklärt ist. EUV kann zufällige stochastische Fehler verursachen, die den ganzen Chip irgendwann plötzlich lahm legen (im selben Artikel bei EUV stochastic issues nachlesbar). Deswegen,wenn die Chipfläche in die Nähe von 500mm^2 kommt oder höher geht, benutzt man das sogennannte Field Stitching, das aus 2 oder mehreren Masken besteht , die an den Ränden mit ihren Submasken überlappen, so dass ein Chip mit möglichst wenig D bei >=500mm^2 Fläche entsteht. Und da fangen die neuen Probleme an, Alignment Errors (Platzierungsfehler), die man mit Redundanz kontert ( Einheiten sind mehrfach vorhanden, man deaktiviert Teile vom Chip danach = verschwendete Fläche) und debuggen muss ( die Art der stochastischen Fehler bei einem Fehlprint, manche sind nicht schlimm, manche muss man mit starker Redundanz bekämpfen), Mehrfachdurchläufe bei jedem Wafer mit jeder der Masken (2+), was den Durchsatz significant verringert => der Chip wird sehr teuer, nicht linear teuer, sondern richtig teuer. Ein Tomahawk mag man auf die Art und Weise zusammenpflicken, falls die Kundschaft kräftig zahlt, aber ein Normalogamer wird nie um die 1500€ für VGA alleine ausgeben. Es kann aber auch sein, dass Tomahawk und Co. in irgendeinem anderen DUV-7nm Verfahren geprintet wurden.
    Extreme ultraviolet lithography - Wikipedia
    Bei der nächsten Gen an EUV-Scannern begrenzt man, wie in deiner Quelle richtig aufgeführt, den Reticle Limit auf 429mm^2 und umgeht das Problem ganz.

  8. #108
    Avatar von RX480
    Mitglied seit
    28.08.2018
    Beiträge
    6.730

    AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

    Also sind wohl Konsumerchips bis ca. 500mm² zu erwarten.
    Das begrenzt die möglichen absoluten Performancesteigerungen ggü. 754mm² etwas.
    "VEGA" RX56cf@ C32HG70-HDR

  9. #109
    Avatar von wuchzael
    Mitglied seit
    09.07.2017
    Liest
    PCGH.de & Heft
    Ort
    Nordhessen
    Beiträge
    1.376

    AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

    Zitat Zitat von HardwareHighlander Beitrag anzeigen
    ... Wieso, bist du Anhänger des Feminismus? ...
    Was für eine DUMME Frage... absolut zusammenhangslos und reine Provokation.

    Grüße!
    386, C64, 486, PS1, P2 400, Duron 800, XP 2400+, XP 2500+@3200+, 64 3500+, E6600@3,6, X4 965, i7 4702, R5 1600X, R7 1700X.
    KA, 8MB Onboard, TNT 2, Savage 4 Pro, GF2 MX200, GF2 GTS, 9600 Pro, 6800GT, X1950 XTX, 8800 GTX (SLI), 560Ti, 660Ti, 980, Vega 64.

    • Bitte einloggen, um diese Anzeige auszublenden.
  10. #110

    Mitglied seit
    19.12.2016
    Beiträge
    156

    AW: Geforce RTX 3000: Ampere-Vorstellung angeblich im März

    Zitat Zitat von 4B11T Beitrag anzeigen
    Für mich spannend bleibt, ob Ampere evntl. doch nur ein eingeschobener Turing Refresh (also < +10%) wird.
    eine zweite Refresh-Edition? Diesmal "Ultra" oder wie? die "Super" war schon sozusagen eine Turing Refresh.

Seite 11 von 20 ... 789101112131415 ...

Berechtigungen

  • Neue Themen erstellen: Nein
  • Themen beantworten: Nein
  • Anhänge hochladen: Nein
  • Beiträge bearbeiten: Nein
  •