News Geforce RTX 4090 wird noch viel häufiger als KI-Beschleuniger missbraucht

PCGH-Redaktion

Kommentar-System
Teammitglied
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4090 wird noch viel häufiger als KI-Beschleuniger missbraucht

Dass die Geforce RTX 4090 in China zu Tausenden als KI-Beschleuniger missbraucht wird, ist längst kein Geheimnis mehr. Doch wie sich mittlerweile herausgestellt hat, ist das Ausmaß noch beträchtlich höher, denn der Wahnsinn hat offensichtlich Methode.

Bitte beachten Sie: Der Kommentarbereich wird gemäß der Forenregeln moderiert. Allgemeine Fragen und Kritik zu Online-Artikeln von PC Games Hardware sind im Feedback-Unterforum zu veröffentlichen und nicht im Kommentarthread zu einer News. Dort werden sie ohne Nachfragen entfernt.

Zurück zum Artikel: Geforce RTX 4090 wird noch viel häufiger als KI-Beschleuniger missbraucht
 
Wenn das so weiter geht haben wir nichts neues von der Technologischen Fortschritt. Da in China die so exstrem sind und da es anscheinend billig genug ist für scramer crypto und mining boom dass wir in europa speziell in deutschland wieder höhere preise haben und hier die scramper versuchen geld zu schäffeln.

Das ist ne schweinerrei und Nvidia wird nix tuhen weil sie ja Kräftig mit verdienen. Damit ist für mich Grafikarten erstmal tabu. Erstens weil ich eine relativ aktuelle zu eine sehr guten kurs gekauft habe und andererseits, Zweitens weil ich schon mir gedacht habe zum Weinachts geschäft das es teurer wird und das es nicht mehr billiger wird weil es so, Drittens anzieht mit den ganzen wilden gram in China.

Mir fällt dazu nix ein. Nur so viel so schnell werde ich keine grafikarte mehr kaufen. Und die ich habe so fern sie nicht kaputt geht (Finger hinter einander verkreuzen) kauf ich keine neue.

Ist der PCGH-Redaktions Kanal/Acc in der zukunft? Oder wie kann es sein das es um ca.. 23:16 gepostet wird mit den genannten zahlen. @PCGH_Phil

Edit: wundert sich wiso der Redaktions konto so weit in der zukunft ist.
 
Was hier so ein Bohai darum gemacht wird, wenn eine GPU das tut wozu sie (im weitesten Sinne) da ist. Consumer und Profikarten sind doch künstlich getrennt, und denen ist es eigentlich egal welche Berechnungen sie durchführen.
Sehr oft hapert es einfach am Treiber, der Funktionen nicht, oder nur eingeschränkt bereit stellt, wenn das kein Problem ist, geht das ohne Probleme. Im Ramen der Leistungsfähigkeit des Chips, und die scheint ja gegeben.

So lange es die Karten darunter verschohnt, bin ich froh, nicht jeder braucht das Topmodell.
 
Ist der PCGH-Redaktions Kanal/Acc in der zukunft? Oder wie kann es sein das es um ca.. 23:16 gepostet wird mit den genannten zahlen. @PCGH_Phil

Edit: wundert sich wiso der Redaktions konto so weit in der zukunft ist.
Der Artikel wurde um 23:15 Uhr gepostet und es kam zu einem Fehler im CMS-System. Den habe ich jetzt entsprechend behoben. Danke dir für den Hinweis.

Liebe Grüße
Sven
 
Wieso ist es bitte Wahnsinn oder Missbrauch? Der Wahnsinn ist alleinig bei Nvidia zu finden Wucherpreise für Workstation GPUs zu verlangen. Der Preis der RTX4090 ist ja bereits Workstation Preis.
Was meinst du wären die Preise auf dem Markt für normale 4090er, wenn es keine Workstation Karten geben würde?

Das ist eine Segmentierung für Karten mit denen man Geld verdient und denen mit denen man keinen Geld verdienen...sollte... Ich meine natürlich als Besitzer der Karte.

Der Miningboom hat gezeigt was passiert, wenn man mit Nicht-Workstation Karten Geld verdienen kann.
Hey ich hatte eine 3060Ti für 1000€ verkauft... (Stolz bin ich nicht, aber das finanzierte mir meine 4090 mit).
Das betrifft dann also nicht nur die stärkste Karte, sondern ALLE...
 
Zuletzt bearbeitet:
Crypto, AI, Spiele zeigen eigentlich sehr gut wie sehr die Lage mit den Grafikkarten verkorkst ist. Früher war es noch irgendwo wichtig ein System zu haben das ausgewogen ist, gute CPU, GPU, Ram, etc. Mittlerweile ist es dazu verkommen dass die GPUs 80% der üblichen Berechnungen übernehmen und der Rest quasi egal ist oder sich langweilt. Man siehts beim Videoschnitt, AI, Crypto, Spiele, ja sogar Dinge die man theoretisch auf die CPU auslagern könnte werden von der GPU übernommen. Das führt einfach irgendwann dazu dass ein guter Rechner aus 90% GPU besteht und der Rest wurst it, wo ist da der technische Fortschritt? Performance, Rechenleistung usw. ist einfach maximal auf die GPU ausgelegt, und damit wird der Fortschritt aufgehalten wenn alle 2 Jahre mal ne neue GPU kommt die in realen Anwendungen eine heftigen Leistungsschub bringt, aber der Rest keine Rolle spielt. Der weg wie wir damit umgehen ist einfach katastrophal, Epic Games z.B. kam nach fast 10 Jahren Unreal Engine endlich mal die Idee mit der nächsten 5.4 Version Multicore rendering richtig auszunutzen und zu optimieren. So als hätte 10 Jahre lang niemand daran gedacht dass jeder zweite mehr als 8 Threads hat und die einfach NICHTS machen und sich langweilen, und stattdessen alles auf die GPU verfrachtet wird.

Wenn wir darauf angewiesen sind dass AMD und NV immer neue GPUs für teuer Geld bringen müssen damit wir einen fortschritt in der Technikwelt für Privatanwender in allen Bereichen haben, dann muss früher oder später eine API her die es ermöglicht auf die Ergüsse vieler Softwareentwickler (quasi als gemeinsames Projekt) zuzugreifen die den Rest der Hardware in unseren Rechnern nutzt um die GPU als Hauptantrieb etwas zu entlasten und zu entkoppeln, Chia hat ja gezeigt dass selbst eine SSD eine gewisse Rechenleistung hat.

Die Preise und Verfügbarkeit kommen zustande weil manche Programmierer so faul sind und die einfachste Quelle mit der meisten Rechenleistung für ihre Zwecke nutzen und den Rest völlig ignorieren, was dann dazu führt dass die GPU plötzlich das Wichtigste im Rechner ist, für Zocker, für KI, für Videoschnitt, für alles. Ich weiß noch als ich damals die stärkste CPU kaufen musste weil Videos über die CPU gerendert wurden, heute ists andersrum, übernimmt meine GPU....Die Frage ist, ist es wirklich schneller weil die rohe Rechneleistung einfach höher ist, oder wurde es einfach nur auf die GPU optimiert weil man sich dachte, ist ja einfacher umzusetzen und die meisten Leute haben sowieso eine bessere GPU als bessere CPU
;-)
 
Die Preise werden wohl langfristig nicht wieder runtergehen. Nvidia hat mit den KI Beschleunigern so viel Gewinn gemacht, denen ist das Non-Profi-Segment doch schnuppe. Denen geht es max. noch darum, AMD "klein" zu halten.
 
Die Preise werden wohl langfristig nicht wieder runtergehen. Nvidia hat mit den KI Beschleunigern so viel Gewinn gemacht, denen ist das Non-Profi-Segment doch schnuppe. Denen geht es max. noch darum, AMD "klein" zu halten.
Der GamingMarkt ist bei NVidia bereits der kleinste Anteil am Kuchen, also völlig wumpe.
Es geht wie gesagt nur darum AMD und Intel nicht stärker werden zu lassen, die dann ja mehr Geld für Personal, Know How, KI Entwicklung und Technologie hätten - um dann letzendlich zu wirklichen Gefahr für das Kerngeschäft zu werden, wo man das fette Geld macht.
Ist bei Prozessoren das Gleiche. Intel muss jetzt was tun, weil mit den neuen 7000er Server-CPU's mit über 200K im Bench ist AMD eigentlich unaufhaltsam geworden. Die Käufer wachen auch so langsam mal auf. Also höchste Alarmbereitschaft bei Intel... Theoretisch.
Praktisch abwarten, ob und wann Intel 4 etc. überhaupt mal marktreif wird, Patti Boy übernimtm sich ja gerne mich vorhersagen.
Intel ist ja der Anti-Nostradamus überhaupt, was behauptet wird, tritt in der Regel so dann auf gar keinen Fall ein. höhhöhö ;-P
 
Eigentlich sollte es mir egal sein. Weil die Karte eh viel zu teuer für mich ist.

Aber es wird wohl langfristig dann auch Mittelklasse Grafikkarten betreffen.
Was mir viel mehr Sorgen macht.
 
Solang es nur die 4090 ist und nicht absehbar auch andere Karten betrifft, würde ich sagen wayne interessierts? Die Allerwenigsten brauchen tatsächlich eine 4090 und die meinen es zu tun, zahlen halt sowieso Mondpreise, ob 1500, 2000 oder 2500 ist dann häufig auch schon wurscht.

Was vermutlich passieren wird: Die 4090 landet irgendwann auf der Sanktionsliste und darf nicht mehr in China verkauft werden. Das wird das "Problem" nicht vollständig lösen, aber lindern. Durchaus möglich allerdings, dass auch Firmen außerhalb von China auf den Trichter kommen, dass die 4090 sich als KI-Beschleuniger exzellent eignen und die dann anfangen den Markt angesichts der absurden Preise für dedizierte KI-Beschleuniger leer zu kaufen.
 
Jetzt ist Ihre Meinung gefragt zu Geforce RTX 4090 wird noch viel häufiger als KI-Beschleuniger missbraucht
Mir fehlt ein wenig die Phantasie, wozu, gerade im privaten Bereich, eine KI auf dem heutigen Niveau genutzt werden soll und kann. Ich bin gedanklich im Wesentlichen bei Optimierungsprozessen, dem Suchen von seltenen Ereignissen in riesigen Datenmengen und der Übernahme von Standardprozessen.

Dass die Industrie und die Wissenschaft tausende dieser Systemem braucht, erschließt sich mir. Aber was machen Privatanwender damit? Zum einen mag es die Lust am Fortschritt und das Experimentieren sein, auch die Anbahnung einer Geschäftsidee mag Motivation was, aber was um Himmelswillen wollen abertausende Privatanwender mit KI-Systemen?

Soll ich meine Einkäufe von einer KI erledigen lassen? Kann man zuhause Energieströme optimieren lassen? Kann man Börsenkurse und insbesondere die abertausenden Nachrichten in der Welt gewinnbringend einsetzen? Hilft mir eine KI bei der Kindererziehung? Sind damit Roboter für die Pflege zu bauen? Irgendwie fallen mir unendlich viele Themengebiete ein, aber keine, bei denen ich wüsste, wie ich eine KI wirklich nutzen sollte.

Wie steht Ihr zu dem Thema.

Danke KI und jetzt präsentier uns mal ne Lösung, die Preise wieder runter zu bekommen?
- Mehr Konkurrenz
- nicht kaufen
- mehr produzieren
- ...
 
Soll ich meine Einkäufe von einer KI erledigen lassen? Kann man zuhause Energieströme optimieren lassen? Kann man Börsenkurse und insbesondere die abertausenden Nachrichten in der Welt gewinnbringend einsetzen? Hilft mir eine KI bei der Kindererziehung? Sind damit Roboter für die Pflege zu bauen? Irgendwie fallen mir unendlich viele Themengebiete ein, aber keine, bei denen ich wüsste, wie ich eine KI wirklich nutzen sollte.
* Bildererkennung/Authentifizierung
* E-Health
* Heimoptimierung/Smarthome
* Optimierte/"intelligentere" Suchen(LLM) bzw. Algorithmen
* Abnahme trivialer Tätigkeiten z.B. im Bereich Formulare
* (Heim-)Robotik (und ja das kann schon beim Staubsaugerroboter anfangen)

Nur so ein paar Sachen, die mir direkt eingefallen sind, bei denen KI im Heimbereich jetzt schon helfen kann. Ob man das will steht wiederum auf einem anderen Blatt.
 
Zurück