Davon geht sonst aber kaum jemand aus. LLMs / neuronale Netze werden in kurzer Zeit disruptiv auf diversen Gebieten einschlagen.
Hinter welchem Mond schläfst du denn?
Es geht keiner davon aus, dass der derzeitige Boom ein Hype ist, eine Bubble?
Das war bisher bei JEDEM Technik-Trend so:
Technik wird misverstanden, übertrieben Erwartungen werden geweckt und beworben, Marketing und Führung verstehen die Technik nicht, Fear of Missing out, übertriebene Investitionen und Buzzword-Invlation, Absturz vom Hype-Gipfel, Tal Der Tränen, später moderate Umsetzung mit eprobter Technik.
Dot-Com-Bubble, Cloud Computing, Big-Data, IoT, VR/AR, 3D-Druck, Industry 4.0, Digitalisierung 2.0, Blockchain, NFC, Metaferse... und jetzt AI.
(So wie uns Atomkraft eine saubere Umwelt mit fliegenden Untertassen und Weltfrieden brachte und elektrische Küchengeräte die Rolle der Frau und ihre Unabhängigkeit am Herd und als "Hausfrau" beflügelten
)
=> siehe "
Gartner-hype-cycle"
->
Moores law is Dead und Gast Josh Walrath : Altagsnutzen von KI und Bubble
->
Mustafa Suleyman Google AI Exec : Danger of AI
-> I
s AI hype a bubble? AI in perspective
->
The AI Hype Cycle Is Distracting Companies (Eric Siegel, Harvard Business Review)
->
Don’t Get Distracted by the Hype Around Generative AI (Lee Vinsel, MIT Sloan Review)
->
Economist Says AI Is a Doomed Bubble
->
Another AI Hype Bubble Pops
->
Are we in an AI hype bubble?
... davon geht sonst aber kaum jemand aus ...
"
According to the 2023 Gartner Hype Cycle for Artificial Intelligence (AI), generative AI is currently at the Peak of Inflated Expectations. This means that it is
at the point of maximum hype and visibility, but it is also where the hype starts to decline as the technology fails to meet overinflated expectations.
The Gartner Hype Cycle suggests that generative AI is expected to reach transformational benefits within the next two to five years.
This includes innovations that will be fueled by generative AI and innovations that will fuel advances in generative AI
Anwälte? Braucht man kaum noch wenn man ein LLM hat welches jedes Gesetz und jedes Urteil kennt.
First-Level-Support Mitarbeiter? Werden in naher Zukunft auch in großer Zahl durch Chat-Bots ersetzt die für 90% der Anfragen die richtige Lösung anbieten. So einen Bot haben wir vor wenigen Wochen Live genommen und der wird jetzt weiter trainiert.
Ärzte? Ein trainiertes neuronales Netz kann Krankheiten mit viel höherer Wahrscheinlichkeit erkennen als jeder Mensch da es auf Millionen von Datensätzen basiert.
Architekten? Einer KI kannst Du eine Zeichnung von einem Gebäude vorlegen und die berechnet Dir automatisch ob das so möglich ist, welche Baumaterialien in welcher Stärke wo eingesetzt werden müssen, usw.
Ich denke viele unterschätzen die Möglichkeiten die sich durch neuronale Netze eröffnen.
Das wird schon lange beschrieen.
Ja es wird desruptiv. Die Firmen werdern KI und Tools nutzen, um Personalkosten zu sparen und später mergen, dass sie die nötige Expertise und das Know-How beim Nachwuchs abgeklemmt haben und darunter leiden.
Genauso, wie es beim Outsourcing lief.
Dieses ganze "braucht man den Mensch nicht mehr" ist Humbug.
Die Software wird den Menschen unterstützt bei vielen unsinnigen Tasks. Wag wegfallen könne sind ABM's und die Vielen unsinnigen Aufgaben, mit denen sich Experten aufhalten müssen.
Ein Arzt, spezialist auf einem Gebiet, erkennt womöglich gut Fälle in seiniem Fachgebiet und weiß diese zu behandeln, das Gros der Patienten und Krankheitsbilder aber richtig einzuordnen und zuzuteilen - da ist big data mit KI-Foresnik viel treffsicherer.
Der Mensch kann visuell gut ein einzelnes Bild analysieren und einschätzen und auswerten aber 100.000de von Bildern in einer Datenbank zu druchforsten, zu filter und zu kategorisieren für einen Exopertenansicht, schafft Ki viel besser, als 100 Praktikanten oder studentische Hilfskräfte.
UInd damit deine LLM's richtig greifen, müssten sie Quellen und Informationen kritisch hinterfagen können und genau da fehlt es der KI und da sind wir noch lange lange weg von: kritisches Denken.
Analyse kann sie, aber kritisch hinterfragen, ob das Sinn ergibt oder eine Alternative besser nicht.
Derzeit redet sie nur sehr Menschenähnlich daher und wirkt damit trügerisch vetrauensvoll - die Validität der Informationen, die aus dem Netz gecrawlt werden, wird aber nicht sinnvoll hinterfragt und gewichtet.
So sehr ich Anwälte nicht leiden kann (oder auch Führugswasserköpfe), LLMs werden hier diese nicht abschaffen - eher noch wir AI von diesen eingesetzt, um ihren Status zu untermauern.
Ich denke, viele überschätzen derzeit auch die direkten praktischen Nutzen.
"Möglichkeiten", "Potential" hat Technik immer viel! Es ist aber an uns, es sinnvoll zum wohl der Menschen eiinzusetzen ... oder auch nicht.