• Hallo Gast, du kaufst gerne günstig ein und erfährst oft vor deinen Freunden von interessanten Angeboten? Dann kannst du dein Talent als Schnäppchenjäger jetzt zu Geld machen und anderen PCGH-Lesern beim Sparen helfen! Schau einfach mal rein - beim Test der Community Deals!

Radeon RX 7000: Flaggschiff mit 2,5-facher Leistung, 160 CUs und Chiplet-Design?

PCGH-Redaktion

Kommentar-System
Jetzt ist Ihre Meinung gefragt zu Radeon RX 7000: Flaggschiff mit 2,5-facher Leistung, 160 CUs und Chiplet-Design?

Leaker sind der Meinung, dass AMD bei RDNA 3 (mutmaßlich als Radeon-RX-7000-Serie) einen riesigen Sprung nach vorn macht. Während Navi 33 wie schon Navi 21 auf 80 Compute Units setzen soll, erhöht AMD bei Navi 31 mittels Chiplet-Aufbau angeblich auf 160 CUs. Die Performance steige um den Faktor 2,5.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

lastpost-right.png
Zurück zum Artikel: Radeon RX 7000: Flaggschiff mit 2,5-facher Leistung, 160 CUs und Chiplet-Design?
 

Incredible Alk

Moderator
Teammitglied
AMD zielt auf 160 CUs in 2 Chiplets +RDNA3, NVidia auf monolithische 144 CUs + "AmpereNext". Beide wohl irgendwo in 5-6nm Fertigungen.

Die x2,5 an Performance dürften zwar ziemlich sicher nur theoretischer Natur sein aber in dieser Generation bestünde durchaus die Chance mal wieder einen echten Sprung hinzulegen weil neue Architekturen gleichzeitig mit neuer Fertigung und großem Konkurrenzdruck anstehen. Wenns gut läuft könnten da am Ende +80% reale Mehrleistung bei ähnlichen Randbedingungen anliegen was wir so schon viele Jahre nicht mehr gesehen haben.
 

owned139

BIOS-Overclocker(in)
Sind 2 Chiplets eigentlich gleichzusetzen mit SLI/CF?
Hat man also die selben Probleme bezüglich Microruckler zu befürchten?
Und zu guter letzt: 2 Chiplets bedeutet dann vermutlich auch noch höherer Stromverbrauch?
 

Incredible Alk

Moderator
Teammitglied
Sind 2 Chiplets eigentlich gleichzusetzen mit SLI/CF? Hat man also die selben Probleme bezüglich Microruckler zu befürchten?
Theoretisch ja. Aber da die Verbindungswege sehr viel kleiner sind als bei SLI können die Chiplets mit viel höherer Bandbreite und viel kleineren Latenzen kommunizieren. Theroetisch sollten sich SLI typische Probleme damit minimieren lassen bis zu einem Punkt wos nicht mehr auffällt dass es eigentlich zwei GPUs sind. Wie gut das am Ende umgesetzt ist muss AMD aber erst zeigen.
 

Ganjafield

Freizeitschrauber(in)
"Faktor 2,5. In puncto Raytracing soll auf die Konkurrenz nahezu aufgeschlossen werden."
hm.....
Was auch immer dieses aufschließen heist?
Zur 3080? 3090?
Zu next Ampere wahrscheinlich eher nicht.
Ratracing wird wohl nicht weniger werden in 1 bis 2 Jahren. Eher immer wichtiger und mir reichte schon die Raytracing Leistung der 3080 bei weitem nicht aus.
Eine 2,5 fache Steigerung der Raytracing Leistung wäre wirklich krass. Da kann die Rohleistung auch niederiger ausfallen.
 

micha1006

PC-Selbstbauer(in)
Wer es glaubt wird selig! Was soll die Karte alleine ziehen? 600W---700W?
Da kann man auch 2x3090 zusammenschalten und dann die doppelte Leistung mit 1KW genießen. AMD hat ja das Rad auch nicht erfunden, würde mich schwer beeindrucken wenn sie diese Leistung im 300-350W hin bekämen!
Außerdem wenn der ganze Spass dann 2000-3000 kostet ist es total uninteressant für die breite Masse, da würden selbst Enthusiasten schlucken!
 

unti20

PC-Selbstbauer(in)
Theoretisch ja. Aber da die Verbindungswege sehr viel kleiner sind als bei SLI können die Chiplets mit viel höherer Bandbreite und viel kleineren Latenzen kommunizieren. Theroetisch sollten sich SLI typische Probleme damit minimieren lassen bis zu einem Punkt wos nicht mehr auffällt dass es eigentlich zwei GPUs sind. Wie gut das am Ende umgesetzt ist muss AMD aber erst zeigen.

Jein. SLI/CF fungieren als sep. GPUs, werden so auch erkannt und müssen über das OS gemanaged werden.

Mit Chiplet Design wird der Interconnect zwischen den 2 Dies über das PCB direkt über eine Schaltungslogik hergestellt und erscheint als 1ne GPU. Wenn die Latenzen zwischen den einzelnen Chiplets so niedrig sind und der Datenaustausch so gut und mit gleicher Geschw. wie nur auf einem einzigen Die funktioniert, dann hast du am Ende nur die Anzahl der CUs erhöht, erhöhst die Ausbeute (wie jetzt schon bei AMD CPUs) und deine Leistung geht einmal direkt durch die Decke.
Microruckler oder ähnliches sollte es dann bestenfalls gar nicht mehr geben, für dich als Nutzer ist das eine GPU, fertig.

Wenn AMD das echt schafft, respekt, wenn man die Effizienz um 40% erhöhte könnte man mit 500W in nächster Gen wirklich so ein Monster herstellen.
Bin gespannt was NVs Antwort darauf ist, wenn NV nicht ähnliche Power auf die Straße bringt dann werden sie - sollte es von AMD so kommen - einfach überrollt, eine RTX4000 ohne Chiplet oder riesigen Die hätte keine - absolut keine - Chance dagegen.

Aber wer weiß, zur Zeit der 8800GTX hatte in dem Jahr auch niemand gedacht, dass NV direkt auf Unified Shader umschwenkt und wir wissen alle noch was das für ein Moment war als der Chip präsentiert wurde :ugly: (mir stellen sich immer noch die Nackenhaare, wenn ich an den Benchmarkbalken denke :hail:)
 

CD LABS: Radon Project

Volt-Modder(in)
Eine 2,5 fache Steigerung der Raytracing Leistung wäre wirklich krass. Da kann die Rohleistung auch niederiger ausfallen.
Tatsächlich wäre das eigentlich sogar am leichtesten zu erreichen. Dafür müssten sie einfach nur ein oder mehrere Raytracing-Chiplets neben ein normales GPU-Chiplet packen.
Zwei identische GPU-Chiplets sinnvoll kooperieren zu lassen ist viel anspruchsvoller.
Wer es glaubt wird selig! Was soll die Karte alleine ziehen? 600W---700W?
Da kann man auch 2x3090 zusammenschalten und dann die doppelte Leistung mit 1KW genießen. AMD hat ja das Rad auch nicht erfunden, würde mich schwer beeindrucken wenn sie diese Leistung im 300-350W hin bekämen!
Außerdem wenn der ganze Spass dann 2000-3000 kostet ist es total uninteressant für die breite Masse, da würden selbst Enthusiasten schlucken!
Wenn die Chiplets in 5nm EUV gefertigt würden (prinzipiell teuer, dafür hätten die einzelnen Chiplets dann halt eine geringe Fläche) und HBM 2E (prinzipiell teuer, dafür gäbe es dann halt kurze PCBs) zum Einsatz käme, könnte das normale 250W-Gefilde sogar wieder erreicht werden . Ich bezweifele allerdings, dass eine Rückkehr dorthin von AMD oder Nvidia gewünscht ist...
 
Zuletzt bearbeitet:

unti20

PC-Selbstbauer(in)
Naja, bei AMD fehlt es am "Gesamtpaket", weshalb ich da Nvidia deutlich vorne sehe und entsprechend hole.
Software sells Hardware :ugly:

Naja, G-Sync = VRR
Ansonsten, bitte nenne die Software, welche du bei AMD im Gesamtpaket vermisst?!

Das ABSOLUT EINZIGE was ich hier gleich mal aufführe wäre DLSS. AMDs Pendant gibt es da noch nicht.
Ansonsten gibts keinen Grund NICHT auf AMD zu setzen.
 

owned139

BIOS-Overclocker(in)
Wenn AMD das echt schafft, respekt, wenn man die Effizienz um 40% erhöhte könnte man mit 500W in nächster Gen wirklich so ein Monster herstellen.
Bin gespannt was NVs Antwort darauf ist, wenn NV nicht ähnliche Power auf die Straße bringt dann werden sie - sollte es von AMD so kommen - einfach überrollt, eine RTX4000 ohne Chiplet oder riesigen Die hätte keine - absolut keine - Chance dagegen.
Ist es nicht sogar schon bekannt, dass die RTX4000 auch auf ein Chiplet-Design setzt? Offiziell wurde das zwar nie bestätigt, aber meine, dass das wohl ein offenes Geheimnis wäre.
 

twack3r

Software-Overclocker(in)
Naja, G-Sync = VRR
Ansonsten, bitte nenne die Software, welche du bei AMD im Gesamtpaket vermisst?!

Das ABSOLUT EINZIGE was ich hier gleich mal aufführe wäre DLSS. AMDs Pendant gibt es da noch nicht.
Ansonsten gibts keinen Grund NICHT auf AMD zu setzen.
DLSS ist per se schon ein sehr gewichtiger Grund für Pancake Gaming.

Für VR muss man sagen dass AMD die Performance weit schlechter auf die Straße bekommt als nVidia und das schon seit Jahren.

Sind für mich zusammen die beiden Punkte warum es diesmal eine 3090 und keine 6900XT wurde, selbst wenn die Rohleistung der 6900XT der 3090 entsprochen hätte.
 

unti20

PC-Selbstbauer(in)
Ist es nicht sogar schon bekannt, dass die RTX4000 auch auf ein Chiplet-Design setzt? Offiziell wurde das zwar nie bestätigt, aber meine, dass das wohl ein offenes Geheimnis wäre.

Wird aktuell meines Wissens noch weniger darüber spekuliert wie bei AMD.
Nach den schlechten Yields bei Samsung für Ampere kann ich mir aber schon vorstellen, dass NV schnellstmöglich auf MCM möchte, MCM ist ja nicht nur oft für die Leistung besser, wenn es denn gut mit der Verbindung intern klappt, sondern auch für die Chipausbeute generell viel besser.
Aber ja - könnte gut sein, NV hat immerhin viel zugekauftes Wissen Inhouse mit Mellanox.
 

Xeandro

PC-Selbstbauer(in)
Technisch seitens AMD der logische Schritt in diese Richtung zu forschen/entwickeln, Ich bin nur gespannt was am Ende für Werte bei der Leistungsaufnahme und der entsprechenden Leistungsabgabe (FPS) unterm Strich stehen. Alles bis 400 bsi 450 W wäre nach heutigen Masstäben der Knaller.
Software Features wie DLSS und RT sind die zweite große Unbekannte da noch nichts von AMD verfügbar ist.

Ich freu mich drauf. So spannend war es seit Jahren nicht mehr Dank Nvidia mit ihrem RT/DLSS Vorstoss und Dank AMD da diese Leistungstechnisch bei der Rasterisierungsleistung ebenbürtig sind. Weiter so!
 

unti20

PC-Selbstbauer(in)
Für VR muss man sagen dass AMD die Performance weit schlechter auf die Straße bekommt als nVidia und das schon seit Jahren.

Sind für mich zusammen die beiden Punkte warum es diesmal eine 3090 und keine 6900XT wurde, selbst wenn die Rohleistung der 6900XT der 3090 entsprochen hätte.

Ja stimmt, war bei mir auch der Grund - DLSS war einfach "Kriegsentscheidend"^^.

VR hatte ich mal die Valve Index, kann damit nichts anfangen, die Auflösung ist miserabel und die Kabel stören mich, bis auf HL Alyx gibts auch keine Blockbuster die mich reizen würden, aber ok, da bin ich nicht drin wie sich AMD Karten verhalten.

Ja gut, Semiprofessional Märkte mal außen vor, es gibt auch Leute, welche die Karte nicht für prof. Anwendungen verwenden, sondern NUR fürs Gaming.

NV pumpt aber in den prof. Markt wesentlich mehr Geld rein was Softwareentwicklung anbetrifft als AMD, ist also was den "Erfolg" anbetrifft auch nicht verwunderlich.
 

Mr_X58

PC-Selbstbauer(in)
2,5 mal so schnell... Sollte der Mining Boom also in die Knie gehen (was bei Bitcoin am Ende des Jahres durch das Halving fällig wird), dann will man wahrscheinlich damit den Stromverbrauch und die neue UVP gerechtfertigen.
 

SnaxeX

BIOS-Overclocker(in)
Und alles erste Mitte nächsten Jahres. Hoffe, dass man im Jänner 2022 viele Informationen bekommt, hält man so ja kaum aus.

DLSS ist für mich halt tatsächlich interessant, weil man so "gratis" Leistung in Spielen bekommt, wenns halt gut klappt. RT wird dann auch langsam mal wichtiger, noch hab ich CP2077 noch immer nicht gezockt.
 

unti20

PC-Selbstbauer(in)
2,5 mal so schnell... Sollte der Mining Boom also in die Knie gehen (was bei Bitcoin am Ende des Jahres durch das Halving fällig wird), dann will man wahrscheinlich damit den Stromverbrauch und die neue UVP gerechtfertigen.

Für die Umwelt wäre es def. Besser, ich stimme dir zu.
Jedoch denke ich wir sehen nur eine kleine Flaute, es wird Ende des Jahres gegen 100K gehen und dann Prost Mahlzeit...

Ethereum das selbe....
Und bald kommt die neue (Name fällt mir nicht ein) - wo nur auf rein Speicher geht....

Es wird kein Ende haben, genauso wenig wie Corona ein Ende haben wird, damit müssen wir uns jetzt erstmal die nächsten Jahre abfinden.
 

twack3r

Software-Overclocker(in)
Ja stimmt, war bei mir auch der Grund - DLSS war einfach "Kriegsentscheidend"^^.

VR hatte ich mal die Valve Index, kann damit nichts anfangen, die Auflösung ist miserabel und die Kabel stören mich, bis auf HL Alyx gibts auch keine Blockbuster die mich reizen würden, aber ok, da bin ich nicht drin wie sich AMD Karten verhalten.
Bis vor kurzem nutzte ich eine Pimax 8KX, jetzt eine Varjo VR-3. Da ist von mangelnder Auflösung nichts mehr zu merken. HL:A ist grandios, das stimmt aber da ich fast nur simrace ist VR quasi alternativlos geworden.

Die Kabel sind für viele noch ärgerlich und ein Hauptgrund dafür ist die massiv verspätete Einführung des ay wireless Standards. Ich denke Ende 2021/Anfang 2022 werden da sinnvolle Lösungen kommen.
 

CD LABS: Radon Project

Volt-Modder(in)
Sind 2 Chiplets eigentlich gleichzusetzen mit SLI/CF?
SLI/ CF basiert darauf, zwei Karten zusammenarbeiten zu lassen. Sie benötigen alles doppelt, insbesondere den VRAM. Das ist bei einem Chiplet-Design nicht der Fall. Die Idee ist dort im Endeffekt, ein Chipdesign durch mehrere Chips direkt nebeneinander umzusetzen.
Hat man also die selben Probleme bezüglich Microruckler zu befürchten?
Entsprechend sollte es bzgl. Microruckler gut aussehen.
Und zu guter letzt: 2 Chiplets bedeutet dann vermutlich auch noch höherer Stromverbrauch?
Da gibt es viel Pro-Contra.
Tendentiell effizienter:
  1. Chiplets eines Chiplets-Designs sind kleiner als monolithische Designs, haben bessere Yields, haben ein besseres Spannungs-Taktverhältnis.
  2. Chiplets ließen sich besser in den Standby schicken, wenn sie nicht benötigt werden. (in der Praxis bislang aber nicht realisiert)
  3. ...
Tendentiell ineffizienter:
  1. Die Inter-DIE-Kommunikation wird komplizierter. Niedrige Latenzen zu erreichen wird energetisch aufwendiger.
  2. Laufen alle Chiplets immer, ziehen sie mehr Strom.
  3. ...

Chiplet-GPU-Design ohne Chiplet-Speicher (z.B. HBM) ist in meinen Augen übrigens aus Ineffizienz-Grund #1 Wahnsinn. Bei CPUs ist das nur deshalb vorhanden, weil die DIMMs halt verdammig etabliert sind. Aber auf Dauer wird es einen Level4-HBM-Cache geben und die DIMMs werden einem sinnvolleren Modell weichen.
 

Ganjafield

Freizeitschrauber(in)
Tatsächlich wäre das eigentlich sogar am leichtesten zu erreichen. Dafür müssten sie einfach nur ein oder mehrere Raytracing-Chiplets neben ein normales GPU-Chiplet packen.
Zwei identische GPU-Chiplets sinnvoll kooperieren zu lassen ist viel anspruchsvoller.
Habe ich auch schon drüber nachgedacht, ob sowas nicht möglich wäre. Und schon hätten Sie Nvidia in Sachen Rytracing weit abgehangen. Bis Nvidia das nachmachen würde.
 

bastian123f

BIOS-Overclocker(in)
Bei den CPUs hat das Chiplet ja auch wunderbar funktioniert.
Gehe da erst einmal positiv ran und wünsche Ralf & Co. viel Spass beim testen.
Das denke ich mir auch.
AMD hat jetzt gut Erfahrung sammeln können.
Allerdings glaube ich das es wieder erstmal ein paar Generationen braucht bis das komplett ausgereift ist. Bei den aktuellen CPUs kann man es ja schön sehen.
 

Incredible Alk

Moderator
Teammitglied
Bei den CPUs hat das Chiplet ja auch wunderbar funktioniert.
Da sind die Herausforderungen aber auch ganz andere. Bei CPU Chiplets musste keine 10.000 Kerne miteinander nahezu perfekt synchronisieren dass du keine Känguruframetimes hast ;-)

GPU MCMs sind technisch extrem herausfordernd wenns gut werden soll. Nicht zuletzt deswegen arbeiten AMD, Nvidia und auch Intel schon viele Jahre daran ohne dass bisher irgendein Produkt erschienen wäre.
Das Ding ist halt dass die Technik extremes Potential bietet - und extremes Risiko wenns schiefgeht.
 

PCGH_Torsten

Redaktion
Teammitglied
Theoretisch ja. Aber da die Verbindungswege sehr viel kleiner sind als bei SLI können die Chiplets mit viel höherer Bandbreite und viel kleineren Latenzen kommunizieren. Theroetisch sollten sich SLI typische Probleme damit minimieren lassen bis zu einem Punkt wos nicht mehr auffällt dass es eigentlich zwei GPUs sind. Wie gut das am Ende umgesetzt ist muss AMD aber erst zeigen.

AMD nutzt eine extrem breite Version von Infinity Fabric bereits innerhalb von Navi 2X. Die mit Abstand naheliegenste Form für eine Multi-Chip-Lösung wäre es, dieses nach außen zu führen, was eine flache Hierarchie ohne softwareseitig sichtbare Grenze zwischen den auf verschiedenen Chips platzierten CUs ergibt. Die Synchronisationsprobleme von Crossfire als solche sind also nicht zu erwarten, allerdings müssen die dahinterstehenden Funktionen natürlich trotzdem gewährleistet sein. Gelingt das nicht schnell genug, käme es bei einer pseudo-monolithischen GPU zwar nicht zu Microruckeln, aber die Leistung würde ganz allgemein einbrechen. Leider geben die Gerüchteköche nie ihre Quellen an und da es spätestens seit der HD5000-Generation bei jeder neuen Ladung AMD-Karten sogannante Leaks zu Multi Chip gibt, kann man aus den aktuellen Meldungen nicht herleiten, ob der Knoten tatsächlich geplatzt ist, oder ob wieder nur Zukunftsvisionen in Tagträume gewandelt werden.

Mit modernenen Packagingverfahren (die bislang aber nur von Intel in Serie eingesetzt werden) ist man einer Lösung zwar so nahe wie nie, aber unterschätzen sollte man sie nicht. Wenn man sich die maßgeblich von Infinity Fabric und Speichercontroller bestimmten Leerlaufverbräuche der neuen Epycs anguckt (Analyse von Ian Cutress) und bedenkt, dass eine GPU noch weitaus größere Datendurchsätze bewältigen muss, werden die Herausforderungen deutlich. Eine Serienlösung muss schließlich nicht nur einfach funktionieren, das wäre mit dem vorliegenden Know-How vermutlich trivial, sondern sie muss effizienter und günstiger in der Implementierung sein. Wenn man mit der doppelten Anzahl an Chips wegen des Platzverbrauchs der Interconnects nur 80 Prozent mehr CUs bekommt und diese zum Ausgleich des zusätzlichen IF-Stromverbrauchs ein Drittel niedriger takten müssen, um das Verbrauchsziel zu halten, dann hat man am Ende halt nur die Leistung eines um 20 Prozent vergrößerten, billigeren Monolithen.
 

Painkiller

Moderator
Teammitglied
Ratracing wird wohl nicht weniger werden in 1 bis 2 Jahren. Eher immer wichtiger und mir reichte schon die Raytracing Leistung der 3080 bei weitem nicht aus.
Da PlayStation 5 und Xbox Series X ebenfalls über Raytracing verfügen, wäre dem ganzen jetzt Tür und Tor bis in den Mainstream hinein geöffnet. Hoffentlich springen die Entwickler auch auf den Zug mit auf. :daumen:

Parallel dazu wäre es schön, wenn die Entwickler ihre Engines mehr auf Multithreading und Ressourcenverteilung hin optimieren würden. Die Rohleistung der Hardware ist ja schön und gut, aber du musst diese Leistung auch auf die Straße bringen bzw. in ordentliche Bahnen lenken.
 

CD LABS: Radon Project

Volt-Modder(in)
Da sind die Herausforderungen aber auch ganz andere. Bei CPU Chiplets musste keine 10.000 Kerne miteinander nahezu perfekt synchronisieren dass du keine Känguruframetimes hast ;-)

GPU MCMs sind technisch extrem herausfordernd wenns gut werden soll. Nicht zuletzt deswegen arbeiten AMD, Nvidia und auch Intel schon viele Jahre daran ohne dass bisher irgendein Produkt erschienen wäre.
Das Ding ist halt dass die Technik extremes Potential bietet - und extremes Risiko wenns schiefgeht.
Ich halte eine Entscheidung, was eigentlich die größere Herausforderung darstellt, nicht für trivial. MCM-CPUs haben eine andere kritische Stelle als MCM-GPUs: Bei den CPUs sind die Latenzen zum Cache (im Sinne von: hin zum kleinen und schneller Speicher) ziemlich entscheidend, bei GPUs sind es eher die Latenzen und Bandbreiten hin zum Hauptspeicher (im Sinne von: hin zum großen Speicher).

Anders gesagt: Wenn HBM3 zur Verfügung stände und der erhoffte Knaller geworden wäre, dann würden sich MCM-GPUs sicherlich schon ordentlich tummeln...
 

IronAngel

BIOS-Overclocker(in)
AMD zielt auf 160 CUs in 2 Chiplets +RDNA3, NVidia auf monolithische 144 CUs + "AmpereNext". Beide wohl irgendwo in 5-6nm Fertigungen.

Die x2,5 an Performance dürften zwar ziemlich sicher nur theoretischer Natur sein aber in dieser Generation bestünde durchaus die Chance mal wieder einen echten Sprung hinzulegen weil neue Architekturen gleichzeitig mit neuer Fertigung und großem Konkurrenzdruck anstehen. Wenns gut läuft könnten da am Ende +80% reale Mehrleistung bei ähnlichen Randbedingungen anliegen was wir so schon viele Jahre nicht mehr gesehen haben.
Sehe ich auch. Die Schader muss man auch erstmal auslasten können. Gerüchte halt, was soll die Karte kosten 2k Euro ? :)

Ansonsten die Miner würden so eine Karte sicher begrüßen.
 

Mr_X58

PC-Selbstbauer(in)
es wird Ende des Jahres gegen 100K gehen und dann Prost Mahlzeit...
Höre ich immer wieder und doch pendelt er sich bei 45.000 ein. Das ist alles reine Spekulation und seitdem Steuern angekündigt wurden lässt der Hauptsächliche Nutzen der Währung sowieso nach.

Ethereum das selbe....
Und bald kommt die neue (Name fällt mir nicht ein) - wo nur auf rein Speicher geht....
Wird diesesmal nicht so groß ausfallen weil sich an dieser Sache keine Staaten darum kloppen werden. Nur noch "Berufs Miner" und "Mining Corps" werden sich darum kümmern weil Sie damit ja schon einmal Geld gemacht haben.

Heck, Douchecoin ist der größte Mittelfinger an der Sache und ich liebe ihn dafür.

Es wird kein Ende haben, genauso wenig wie Corona ein Ende haben wird, damit müssen wir uns jetzt erstmal die nächsten Jahre abfinden.
Eigentlich schon, da irgendwann die begrenzte anzahl an Bitcoins vollständig berechnet sein wird. Mein letzter Wissensstand war bei ca. 80% und da es zurzeit richtig große Miningstellen gibt, wird das auch schon bald erreicht sein (ich geb dem Zeug noch max. 2 Jahre) Ob das ganze dann noch "effizient" sein wird sei dahingestellt.

Und so oder so, wird das ganze nicht lange weiter gehen. China verbietet es und die USA setzt Steuern darauf. Das ist auch gut so weil es einfach keinen Nutzen für die Menschheit, den Planeten oder irgendeinem größeren Wohl hat.
 

PCGH_Torsten

Redaktion
Teammitglied
@Mr_X58: Die Zahl der ausgeschütteten Bitcoins ist unabhängig von der Gesamtrechenleistung der Miner und wird im Laufe der Zeit immer weiter reduziert. Die viel zitierte Grenze von 21 Millionen BTC, jenseits derer die Neuschöpfung praktisch null entspricht, wird 2140 erreicht werden.
 

RX480

Volt-Modder(in)
AMD nutzt eine extrem breite Version von Infinity Fabric bereits innerhalb von Navi 2X. Die mit Abstand naheliegenste Form für eine Multi-Chip-Lösung wäre es, dieses nach außen zu führen, was eine flache Hierarchie ohne softwareseitig sichtbare Grenze zwischen den auf verschiedenen Chips platzierten CUs ergibt. Die Synchronisationsprobleme von Crossfire als solche sind also nicht zu erwarten,
1+
Ist doch nichts Anderes als Ryzen. ... dann beide Chips mit einem gemeinsamen IC.

Was sollte eigentlich der komische Satz zur Effizienz von RDNA2 im Artikel?
"An einer deutlichen Effizienzsteigerung wurden allerdings schon bei RDNA 2 im Vorfeld Zweifel laut - und sie kamen doch."
Ich hatte noch nie so ne sparsame Graka! (leicht UV/OCed)
 

Anhänge

  • Outriders2@1800p-60Hz-Vsync.png.jpg
    Outriders2@1800p-60Hz-Vsync.png.jpg
    923,3 KB · Aufrufe: 66
  • B3-Efficiency.png
    B3-Efficiency.png
    20,8 KB · Aufrufe: 58
  • 5700vs6800@VRS.jpg
    5700vs6800@VRS.jpg
    193,9 KB · Aufrufe: 40
Oben Unten