Mhh. AMD baut extrem gute CHips (GPU und CPU) fürs Mining. Die haben es drauf.
Grundsätzlich ist es bei Cryptowährungen das Ziel, ein möglichst dezentrales Netzwerk zu unterhalten, damit niemand die alleinige Kontrolle (beispielsweise in Form von Zensur) hat. Bei Pow-basierten Blockchains braucht es Mining-Nodes (Miner), um die Blockchain mit Blöcken (da stehen beispielsweise die Transaktionen drin) zu verlängern - sonst funktioniert die Cryptowährung nunmal nicht. Benötigt Mining spezialisierte Hardware wie ASICS, hat man wieder starke Tendenz zur Zentralisierung, weil sich nicht jeder so ein Teil in's Wohnzimmers stellt. Optimal wäre es, wenn jeder Teilnehmer einen kleinen Teil beitragen könnte. Daher die Idee, Cryptoalgorithmen möglichst nur auf CPUs und GPUs effizient laufen zu lassen. Dass das Aufgrund des Hypes kurzfristig etwas unangenehme Folgen hat, müssen wir hinnehmen.Schon anhand der Tatsache, dass man die Berechnung der Kryptowährungen gegen ASICs/FPGAs resistent macht, zeigt doch woher der Wind weht. Statt hocheffizient die Berechnungen in einem darauf spezialisierten Stück Silizium zu machen, will man lieber stromfressende GPUs dafür nutzen.
Aber ich glaube, dann hätten sie Vega fürs Mining ein wenig anders gemacht.Ob es nicht vielleicht sogar AMDs Plan war?! Erstmal übers Mining und die Konsolen Kohle einfahren um es dann in neue Architektur zu stecken ?!
Bin ich froh, wenn dieser Hype endlich vorbei ist und mal wieder ein paar Leute sehr reich und viele Leute sehr sehr arm geworden sind
Wenn man auf nationaler Ebene den Kauf mit der Währung verbietet, hat sich das hoffentlich noch schneller erledigt.
Nur sind ASICs und FPGAs jetzt nicht wirklich teuer um das nicht auch zu bewerkstelligen. Für den Preis einer Vega kann ich mir auch 1-2 Arria FPGAs kaufen, die aufgrund ihrer Spezialisierung eigentlich alles in Grund und Boden rechnen würden. Also sind die meisten Kryptowährungen auf Ineffizienz und Ressourcenverschwendung designed.Grundsätzlich ist es bei Cryptowährungen das Ziel, ein möglichst dezentrales Netzwerk zu unterhalten, damit niemand die alleinige Kontrolle (beispielsweise in Form von Zensur) hat. Bei Pow-basierten Blockchains braucht es Mining-Nodes (Miner), um die Blockchain mit Blöcken (da stehen beispielsweise die Transaktionen drin) zu verlängern - sonst funktioniert die Cryptowährung nunmal nicht.
Das glaube ich nicht, wenn erst mal viele Existenzen aufgrund der Spekulation vernichtet wurden, wird sich das alles schon wieder legen. Es sind und bleiben Spekulationsblasen, solange man sie nicht in der echten Welt gegen Waren und Dienstleistungen eintauschen kann. Verbieten die großen Industrieländer sowas bzw. akzeptieren die digitale Währung nicht als Währung, darf damit nicht gehandelt werden und es bleibt ein Platz für Träumer und Illegales. Auch die Kryptos liegen alle in der Hand weniger Leute, die ohne Probleme die Blase zum platzen bringen können, sollten sie ihre Anteile veräußern.Dann fängt es erst so richtig an!
Man braucht eine neue Kryptowährung, die völlig anonym ist und die muß erst einmal gemint werden, am besten mit Grakas oder CPUs. Es wird nie enden, wenn eine Kryptowährung abschmiert, dann braucht man gleich die nächste, die an ihre Stelle tritt. Kryptowährungen haben ein Bedürfnis befriedigt und in einer Marktwirtschaft wird es dann Leute geben, die das ganze Herstellen, so einfach ist es.
Es ging bei PoW-basierten Blockchains nie um Energieffizienz, sondern um Dezentralisierung. Unter diesem Aspekt ist es naheliegend, Mining auf handelsüblichen CPUs und GPUs zu forcieren (die sind bereits im Umlauf und waren bis vor etwa einem Jahr auch vernünftig verteilt). Und unter diesem Aspekt macht es eben keinen Sinn, das Mining nur auf wenig verbreitete, spezialisierte ASICS zu reduzieren. Ressourcenverschwendung ist kein beabsichtigtes Ziel, sondern eine unerwünschte Nebenwirkung., Zugegeben - je mehr Ressourcen aufgewendet werden, um die Blockchain am Leben zu erhalten, umso größer ist die Sicherheit der Blockchain - weil die Kosten eines Angriffes entsprechend hoch sind. Es ist meiner Meinung nach falsch, zu behaupten, dass die Algorithmen wie Cryptonight oder EThash nur auf CPUs und GPUs performant laufen, nur um Ressourcen zu verschwenden.Nur sind ASICs und FPGAs jetzt nicht wirklich teuer um das nicht auch zu bewerkstelligen. Für den Preis einer Vega kann ich mir auch 1-2 Arria FPGAs kaufen, die aufgrund ihrer Spezialisierung eigentlich alles in Grund und Boden rechnen würden. Also sind die meisten Kryptowährungen auf Ineffizienz und Ressourcenverschwendung designed.
Das glaube ich nicht, wenn erst mal viele Existenzen aufgrund der Spekulation vernichtet wurden, wird sich das alles schon wieder legen.
Es sind und bleiben Spekulationsblasen, solange man sie nicht in der echten Welt gegen Waren und Dienstleistungen eintauschen kann.
Verbieten die großen Industrieländer sowas bzw. akzeptieren die digitale Währung nicht als Währung, darf damit nicht gehandelt werden und es bleibt ein Platz für Träumer und Illegales..
Im Prinzip ja, wobei so oder so der Unterschied marginal ist und im Privatbereich fast egal.Also ist Ryzen doch zu was gut.
(Persönliches) Fazit:
Gaming -> Intel
Alles andere -> AMD
Im Prinzip ja, wobei so oder so der Unterschied marginal ist und im Privatbereich fast egal.
Letztlich ist der Unterschied sehr deutlich und ein erneuter Sieg für AMD- Sehr gut, weiter Intel Feuer unterm Hintern machen
Und genauso wie man nicht zu ner 1080ti raten würde wenn man ständig im Prozessorlimit hängt, muss man auch nicht zum 8700k raten wenn man meist im GPU Limit ist. Kommt immer auf die Präferenzen des Käufers an.20-30% Mehrleistung beim Gaming sind nicht egal, sondern z.B. der Unterschied zwischen der GTX 1080 non OC und der GTX 1080Ti. Von daher Augen auf beim Prozessorkauf.
Für mich selbst kommt Ryzen deshalb NOCH nicht in Frage und ich warte auf Zen 2 oder 3 um dann wirklich zu entscheiden. Aber das betrifft ja auch eher Ausnahmen: wo ist der Unterschied 20-30% außer in ARMA und Starcraft 2 (wo es auch über 50% sein können). Es sind natürlich viele Spiele die nur 1-2 Threads verwenden, wo der Vorsprung so groß ist, aber diese wiederum haben meist sowieso nicht genug CPU Hunger.20-30% Mehrleistung beim Gaming sind nicht egal, sondern z.B. der Unterschied zwischen der GTX 1080 non OC und der GTX 1080Ti. Von daher Augen auf beim Prozessorkauf.
Für mich selbst kommt Ryzen deshalb NOCH nicht in Frage und ich warte auf Zen 2 oder 3 um dann wirklich zu entscheiden. Aber das betrifft ja auch eher Ausnahmen: wo ist der Unterschied 20-30% außer in ARMA und Starcraft 2 (wo es auch über 50% sein können). Es sind natürlich viele Spiele die nur 1-2 Threads verwenden, wo der Vorsprung so groß ist, aber diese wiederum haben meist sowieso nicht genug CPU Hunger.
Dann gibts Spiele, WENIGE, die immer noch aktuell sind, CPU Hunger auf 1-2 Threads haben (Starcraft 2, ARMA) und wo Ryzen abgehängt wird. Ja die sind Spielbar aber eben doch deutlich besser mit dem i7.
Soll jeder selbst für sich entscheiden, aber pauschal sagen Ryzen sei gleich gut ist genauso falsch wie Intel sei 20-30% besser. Das sind dann doch eher Ausnahmen soweit ich mich erinnere. Man kann mich natürlich korrigieren.
Und bei dir beim Ablassen von sinnlosen Kommentaren. Kleine Kinder sollten um diese Zeit längst im Bett liegen.Genau, bei der Gewinn-Marge von Intel
Dass mehr Threads niemals Leistung pro Kern und IPC ersetzen war klar, deshalb ja Bulldozer ein Fail sondergleichen wurde.Jedes Spiel ist irgendwo CPU begrenzt und solange ein Spiel nicht mehr als 6 Kerne Ausnutzt, ist Intel im nunmal Vorteil. Zu sagen, dass es nur wenige Spiele sind, in denen es krass durchschlagt hilft auch nicht weiter, wenn man so einem Spiel über den Weg läuft (z.B. Anno, SC2, AoE 1 DE). Mal abgesehen davon, dass einem das immer einholt, hätte ich damals auf die Leute gehört, die mir das gesagt haben, was viele über Ryzen sagen (nicht so wichtig, Multithreadung übernimmt eh alles usw.), dann hätte ich schon 1-2 mal aufrüsten müssen, so kann ich immer noch gut zocken, auch nach über 5 Jahren.
Jedes Spiel ist irgendwo CPU begrenzt und solange ein Spiel nicht mehr als 6 Kerne Ausnutzt, ist Intel im nunmal Vorteil.