Künstliche Intelligenz als nützliche Spielerei
Vor ein paar Jahren hat OpenAI die erste Version von ChatGPT auf den Markt gebracht. Mit großen Worten wurde eine künstliche Intelligenz versprochen und viele Menschen waren begeistert. Ich hingegen fand das Produkt zwar praktisch und technisch beeindruckend, aber eher als nützliche Spielerei. Kleinere Programmieraufgaben, Textkorrekturen oder das Zusammenfassen gegebener Informationen, mehr Einsatzmöglichkeiten gab es für mich nicht. Egal ob ChatGPT, Google Gemini, Perplexity oder Kagi Assistant, bei allen beschränkte sich die Interaktion auf ein Texteingabefeld und Anhänge. Komplexe Aufgaben musste man in kleine Happen schneiden und Schritt für Schritt durcharbeiten. Der KI fehlte dann aber auch das Gesamtbild.
Versteh mich nicht falsch, auch das war praktisch und ich konnte damit Projekte umsetzen, für die ich ohne die künstliche Intelligenz ewig gebraucht hätte. Aber eigentlich war nichts daran intelligent. Ein riesiger und nicht mehr verständlicher Algorithmus, trainiert mit fast allen Inhalten des World Wide Webs, hat eine Frage auseinandergenommen und Wort für Wort vermeintlich beste Reaktion nach einer Wahrscheinlichkeitsrechnung ermittelt. Die Antwort eines LLMs ist also einfach die statistisch am wahrscheinlich passendste Wortkombination.
Davon ausgehend, dass richtige Fakten und Daten den Großteil des WWWs ausmachen funktioniert das, gerade bei einfachen alltäglichen Dingen, recht gut. Bei unbekannteren Themen, aktuelleren Themen oder komplexen Zusammenhängen ist dieser Ansatz aber nicht nur unnütz, sondern sogar gefährlich. LLMs wissen nicht, ob das was sie ausgeben richtig ist. Es ist nur das beste Ergebnis, welches die LLM liefern kann und das tut sie auch. Immerhin kann man inzwischen teilweise verhindern, dass LLMs irgendwas zusammenrechnen, nur damit sie überhaupt eine Antwort haben. Die Schwellenwerte für “wie hoch muss die Wahrscheinlichkeit sein” wurden hier deutlich nachjustiert.
Aber den ganzen Hype um diese LLMs konnte ich nur bedingt nachvollziehen. Ich habe das Potential gesehen, aber viele Menschen waren von dem, was Mitte 2025 schon existierte, beeindruckt und haben das gefeiert. Und selbst heute spielen 95% der Menschen noch immer nur mit diesen einfachen LLMs im Browser rum, feiern den Fortschritt und denken, dass ist künstliche Intelligenz.
Claude AI zeigt mir den Weg
Während diese Modelle und Angebot für mich eher ein Stein waren, mit denen man Nägel in die Wand hämmert - immerhin besser als ohne Werkzeug - hat mich Claude AI die letzten Wochen überrascht. Es ist noch keine Nagelpistole, aber inzwischen ein recht solider Hammer. Ein Hammer, den ich erstaunlich oft einsetze und der mich sowohl im Alltag als auch beruflich massiv unterstützt. Ich bin nicht nur produktiver, ich kann auch Dinge angehen, die vorher nicht in meiner Reichweite waren.

Komplexere Coding Projekte? Kein Problem, Claude ist nicht nur auf eine Datei beschränkt, sondern kann komplette Projekte durchkämmen. Mehrstufige Analysen? Kein Problem. Dateisortierung und -bearbeitung? Macht Claude.
Um ehrlich zu sein hat es mich überrascht, wie schnell mich Claude Code und Claude Desktop überzeugt haben. Der agentische Ansatz, welcher mehrstufige und mehrschrittige Aktionen zulässt ist für mich der Wendepunkt in der Nützlichkeit von LLMs. Sie werden dadurch noch lange nicht zu richtigen künstlichen Intelligenzen, aber eben zu verdammt nützlichen Tools. Quasi ein ungelernter Assistent, der Fleissarbeiten erledigt, man aber besser trotzdem nochmal drüber schaut. Am Ende spart man aber doch deutlich mehr Zeit, als man für die Kontrolle investiert.
Konkrete Beispiele
Ich habe als Product Owner auch Zugriff auf unseren Code und grundsätzlich verstehe ich Code. Aber der Code eines ERPs ist komplex, verschachtelt, verteilt und voll von Abhängigkeiten. Um eine “einfache” Funktion im Workflow zu verstehen muss ich mich mehrere Stunden durch den Code wühlen. Oder ich lasse Claude Code darüber laufen, welches noch mit mit unserem Ticketsystem Jira und dem Wissensspeicher Confluence verbunden ist. Das Ergebnis? Innerhalb von wenigen Minuten hat Claude Code sich durch unseren Quellcode gewühlt, in Kommentaren erwähnte Jira Tickets inklusive Kommentare und eventuellen verknüpften Stories geprüft und mir dann in Confluence eine verständliche Zusammenfassung geschrieben. Diese ist mit etwas IT Wissen verständlich, aber gibt auch genug Details für Gespräche mit Entwicklern.
Wer Confluence kennt wird auch wissen, dass die Suche kein Meisterwerk ist. Mit Rovo bietet Atlassian inzwischen auch eine KI an, aber auch deren Ergebnisse konnten mich nicht überzeugen. Claude scannt sich problemlos durch Confluence, folgt Links zu Jira und externen Seiten und erstellt mir eine gute Zusammenfassung zu Themen. Nicht perfekt, nicht fehlerfrei, aber sehr solide und immer gut nachvollziehbar und prüfbar.

Aber auch privat nutze ich Claude Code inzwischen recht viel. Ich habe es in Obsidian eingebunden. Auf diesem Blog kann man nachvollziehen, dass ich bisher eigentlich mit keinem Notiztool zurecht gekommen bin. Meine Denkweise ist zu schnell und zu sprunghaft, um mehr als knappe Stichpunkte zu notieren. Meine Notizen waren bisher also sehr knapp, sehr chaotisch und damit wenig hilfreich. Was wäre aber, wenn es ein Tool gäbe, dass aus meinem Gedankenchaos strukturierte und lesbare Notizen machen könnte? “Überarbeite die Formulierung und Struktur dieser Notiz” an Claude schicken und 30 Sekunden später habe ich eine strukturierte Notiz.
Auch bei diesem Beitrag hat Claude mich unterstützt. Nein, nicht beim Tippen. Ich verwende Claude aber für die Strukturierung des Beitrags. Ich erstelle eine Notiz mit den Inhalten für den Blogpost und mit Claude bringe ich Struktur in den Beitrag. Wenn ihr wüsstet, wie oft ich in der Vergangenheit Beiträge neu schreiben oder überarbeiten musste, weil ihre Struktur einfach chaotisch war. Dazu setze ich Claude ein, um Rechtschreibfehler, Satzbau und vergessene Worte korrigieren zu lassen. Aber den Roman hier habe ich brav selbst getippt.
Hoffnung und Sorgen
Meine Erfahrungen mit Claude in den letzten Wochen haben mir schon ein Wechselbad der Gefühle beschert. Einerseits bin ich extrem beeindruckt von den Fähigkeiten und der Selbstständigkeit, auch oder gerade bei komplexen Themen und Aufgaben. Andererseits ist LLM KI damit auf einem Niveau, welches tatsächlich einige Jobs überflüssig machen kann. Gerade Jobs, welche auf reine Datenverarbeitung oder -wiedergabe aufsetzen sehe ich in Gefahr. Beratung im Elektromarkt kann KI vermutlich schon besser als der gelangweilte Student. Aber auch alles was mit Recherche und Zusammenfassung zu tun hat. Warum brauche ich noch einen Controller, der mir die Daten aus der Datenbank zusammenstellt in eine Excel Vorlage einträgt? Einfach KI die Zahlen direkt rausziehen lassen. Immer aktuell, immer genau die Daten die ich brauche.
Bei allen kreativen Berufen sehe ich noch nicht so die Gefahr. LLMs erschaffen nichts und sie verstehen nichts. Ein guter Entwickler wird von agentischen KIs unterstützt und sicher deutlich effizienter, auch bei mir wird die eigentliche Arbeit nicht von KI ersetzt. Aber die Fleißarbeiten werden abgenommen. Aber ich sagte ja: Noch.
Eventuell sind wir irgendwann aber so weit, dass geistige Arbeit komplett von KIs erledigt werden können, nur eine kleine Gruppe Menschen wird diese steuern und die Aufgaben verteilen. Was bleibt dann? Handwerkliche Arbeit und Grundlagenforschung. Für ersteres bin ich viel zu ungeschickt, für letzteres zu dumm. Wir leben in spannenden Zeiten.