Die Qualität heutiger Spiele und Programme ist selbst ohne AI schon auf einem Tiefpunkt angekommen. Mit dem Einsatz von AI wird noch weniger Hirnschmalz genutzt und sich darauf verlassen, dass es schon so passt was ChatGPT da fabriziert.
Mit der Begründung kann man auch gegen fertige Autorensystem, wie Unity oder das von EPIC argumentieren. Es kommt darauf an, was man damit macht. Man kann sich damit unglaublich schlechte Spiele zusammenstückeln, der Markt ist voll davon. Man kann aber auch umgekehrt das mächtige Werkzeug dazu nutzen, um ein Wunder zu vollbringen, das sonst so nicht möglich gewesen wäre.
Wenn man es positiv sehen will: die schlechten Spiele sind dann nicht mehr so schlecht und das ist auch ein großer Fortschritt. Ein gutes Beispiel für KI wäre Palworld. Ohne KI absolute Grütze, so aber offenbar durchaus ganz gut spielbar, auch wenn es noch optimiert werden muß.
So wird es auch mit KI sein. Ich freue mich schon auf die ersten richtig gut gemachten Spiele.
Das kann und wird nicht funktionieren. Heise oder Golem hatte dazu vor einer Weile einen Artikel verfasst wo darauf eingegangen wurde, dass der generierte Code qualitativ eher schlecht ist und sich ständig wiederholt.
Wir stehen noch am Anfang, das wird alles ausgemerzt. In 5 Jahren wird das ganze dann wesentlich besser funktionieren. Dann auch hoffentlich mit lesbarer Schrift, der korrekten Zahl an Gliedmaßen, glaubwürdigen Proportionen usw.. In der Vergangenheit gab es das ja auch. Man muß nur Toy Story (1TB an Daten haben die damals erzeugt oder waren es 10TB?) mit dem vergleichen, was 10 Jahre später kam.
Woher will die AI wissen welche Musik zur Situation im Spiel passt?
So, wie heute auch, ist ja kein Hexenwerk. Einfach Marker setzen und dann war es das. Wenn man weiter gehen will, dann kann man natürlich aus dem lernen, was andere so gespielt haben.
AI wird keine Komponisten ersetzen. Sie wird Komponisten unterstützen aber niemals ersetzen. Dafür fehlt einfach die menschliche Komponente.
Das stimmt nicht. Jeder Komponist, der recht einfallsloses Zeug entwirft, sollte sich Sirgen machen, denn sowas kann bald jeder. Aber das ist auch nichts neues. Die Schallplatte hat z.B. die ganzen Wandermusiker arbeitslos gemacht. Wer was drauf hat, der wird auch in Zukunft noch Arbeit haben, aber sehr viele werden sich was neues suchen müssen.
Ist es wirklich erstrebenswert in dem Fall ChatGPT anstatt den eigenen Kopf und im Zweifelsfall Google zu benutzen? Ich weiß ja nicht ... klingt für mich nach verblöden mit Ansage.
Sogesehen ist die ganze Menschheitsgeschichte eine einzige Verblödung.
Früher, also ganz, ganz früher, mußte man jemanden Finden, der etwas wute und es sich von ihm persönlich beibringen lassen. Dann wurde die Schrift erfunden und der Typ (meisten war es ein Kerl) konnte einem eine Anweisung hinterlassen, praktisch, wenn man das Wissen nach dem Ableben desjenigen bewahren wollte. Dann kam der Buchdruck und jeder Depp, der lesen konnte und etwas mehr Geld hatte, konnte sich am Wissen bedienen. Dann kam die Schulpflicht sowie Bibliotheken und plötzlich konnte das wirklich jeder Depp! Dann kam irgendwann das Internet, Wikipedia und heute die KI.
Es ist alles eine logische Weiterentwicklung. Und obwohl die Menschen seit Jahrtausenden verblöden, ist der IQ immer gestiegen.
Du vergisst die QS dabei. Dein Code ist dein Gehirnschmalz. Deine Ablaufsteuerrung, deine Input Verification etc. Das Ergebnis des Sprachmodells kann man nicht unbesehen übernehmen. Man muss es sehr gründlich testen. Wie machst du das z.B. mit Unit Tests? Schreibst du die selber, oder lässt du auch die vom Sprachmodell schreiben? Und wie gehst du mit der Haftung um, wenn im Schadensfall herauskommt, dass ein Sprachmodell und nicht du den Code erstellt hat?
Sicher wird man kritische Dinge immer testen müssen, aber das muß man so auch. Es wird schneller gehen und zuverlässiger sein. Auch den Code kann man so auf Schwachstellen abklopfen lassen.
Diese Teile sind so dumm, dass es jedweder künstlichen Intelligenz spottet. Du solltest das Buzzword KI gegen Sprachmodell tauschen. Intelligent ist an den Modellen nämlich erstmal gar nichts. Die gehen nur nach Wahrscheinlichkeiten. If ... then ... else auf Speed, wenn man so will.
Es ist einfach eine neue Art der Berechnung. Das Problem ist, dass die meisten irgendwelche intelligenten Roboter, die dem Menschen in nichts nach stehen, im Kopf haben, statt einer alternativen Methode Verknüpfungen zu berechnen.
Weil bei diesem Prozess immer noch aktiv der eigene Kopf genutzt wird. Bei ChatGPT gibst du nur ein was du möchtest und fertig. Denken? Fehlanzeige. Lernprozess? Fehlanzeige. Soll ChatGPT den künftigen Generationen dann noch sagen wie man seine Schuhe zubinden muss, um es mal etwas überspitzt darzustellen?
Immer weniger den eigenen Kopf nutzen und sich alles vorkauen lassen ist definitiv der falsche Weg.
Das kann man bei allem sagen. Die ganzen Helferlein, Abakus, Rechenschieber, Wurzelbuch, Computer, Taschenrechner usw. lassen einem der Logik nach auch verblöden. Genauso, wie ein Fahrrad die Ursache für Unsportlichkeit wäre, da man damit erheblich bequemer unterwegs ist.
Am Ende sind es Werkzeuge. Kein Mathematiker zieht im Alltag eine Wurzel im Kopf, auch wenn er es gelernt hat, wie man es könnte. Verblödet würde ich jemanden, der mit einem Computer komplizierte Simulationen berechnet ,dennoch nicht nennen.