Das Feld "KI" bringt schon erstaunliche Sachen hervor, aber es ist immer noch ein Hypetrain und viele Prognosen heiße Luft. Das war schon vor sechs, sieben Jahren so, als ich im Studium näher dran saß. Die führenden Unis, was Publikationen etc. in dem Bereich anging, formulierten das extrapolierte Potential so als wäre es bereits der Status Quo. Aber das ist eben noch ein langer Weg dahin.
Ich greife mal wie Hades den Programmierer/Entwickler auf: Das sehe ich auch in absehbarer Zeit nicht gefährdet. Die KIs sind immer noch zum großen Teil bloße Mustererkennung, wenn auch komplexe. Der gute Stand der KIs ist, dass sie einfach eine Unmenge von Daten gefüttert bekommen haben, aber die ist auch irgendwann aufgebraucht. Und es erscheint eben auch nur so toll für den Laien, der es nicht besser beurteilen kann.
Nehmen wir mal GitHub Co-Pilot. Ein unterstützendes Tool für Programmierer, welcher Code, dessen Dokumentation etc. generieren kann. Als Lernbasis hat es natürlich größtenteils GitHub mit seinen vielen Open Source-Projekten. Aber die Datenmenge ist endlich. Sicherlich kommt immer wieder neuer Code hinzu, aber wenn darunter von Co-Pilot selbst generierter Code dabei ist, versteift er auf sein eigenes Muster, was kein gutes sein muss (und auch nicht ist). Das ist im Übrigen auch die letztliche Folgerung, wenn man generative KIs ungezügelt einsetzt. Wenn bspw. eine bildgenerierende KI die Bilddatenbanken aufgesogen hat, aus dem Erlernten viel einfacher neue Bilder generiert werden, lernt die KI auf ihrem eigenen Produzierten weiter, was nach gewisser Zeit zu einem kompletten Abstumpfen der neu generierten Bilder führt, da die Datenbanken damit überschwemmt werden.
Zurück zum Co-Pilot: Hier gibt es bereits Publikation(en), dass dieser schlechter wird. Ebenso haben Umfragen und Analysen ergeben, dass die Programmiererfahrung der Programmierer, die ihn einsetzen, indirekt proportional zur Zufriedenheit im Arbeiten mit Co-Pilot steht. Heißt: Je erfahrener man ist, desto weniger erscheint der generierte Code sinnvoll. Die Neulinge, die natürlich bei solchen Sachen auf dem Hypetrain sind, weil es ihre Arbeit scheinbar erleichtert, können das Ergebnis schlechter beurteilen (der eigene Horizont ist eben nicht weit genug). Das ist übrigens die Gefahr, wenn Leute, die Programmieren gerade erst lernen, also z.B. im Studium sind, und solche Tools einsetzen, einfach nie richtig selbst programmieren lernen werden. Und ja, diese Leute wird man ersetzen können. Egal wie gut eine KI ist, sie setzt eine Messlatte. Alle, die darunter liegen, können ersetzt werden. Ich glaube nur nicht, dass in absehbarer Zeit die Messlatte hoch genug liegen wird, dass ich meinen Job dadurch in Gefahr sehe. Und da sprechen wir erst mal nur über das Schreiben von Code, was nur ein Aspekt ist.
GitHub Co-Pilot kann anscheinend kaum refactoren, sondern schmeißt nur neue Funktionen in den Code. Eine Vielzahl von eingechecktem generierten Code wurde nach ein paar Wochen wieder zurückgenommen.
Kurz: Es ist schon erstaunlich, was ein Programm leisten kann, aber ist immer noch Blendwerk, weil dahinter eine gigantische, von Menschen nicht erfassbare Datenmenge als Grundlage liegt.
Und im Übrigen reiht sich KI beim ökologischen Fußabdruck bei den Crypto-Minern ein. Also egal wie geil man die Technologie und ihre Potentiale findet, es schadet der Umwelt, solang wir nicht komplett auf saubere Energie umgestiegen sind.