
Stories Connecting Dots with Markus Andrezak Storis Connecting Dots Ep. 34 - Matthias Lübken - AI Revolution Insights
Matthias Lübken. Zwei Jahre deep in AI. AI Revolution Isights Wo man Mathias erreicht:
Matthias' Angebot: tavon.ai - Put AI Agents To work AI education and deplyoment
LinkedIN: https://www.linkedin.com/in/luebken/
Community: AI Tinkerers Cologne
Matthias ist Produktmanager, Softwareentwickler, Rheinländer aus Bonn. Seit gut zwei Jahren macht er nichts anderes als AI-Tools studieren und anwenden. Er hat die Welle vor zwei Jahren auf sich zukommen gesehen hat und ist reingesprungen.
Im Gespräch versuchen wir Hintergründe zu erklären, Fomo zu nehmen und aufzuklären, Begriffe erklären.
TLDRAgentic AI ist ein glorified while loop mit Tool Calls. Wer das einmal verstanden hat, sieht warum so absurde Sachen funktionieren — und warum die meisten Diskussionen da draußen am falschen Punkt ansetzen.
Ein paar Themen, die wir besprochen habenDer Schalter
Der Moment, der alles verändert hat, war Claude Code und die neuen Modelle. Auf einmal konnte Matthias Sachen alleine machen, für die er vorher ein ganzes Software-Team gebraucht hätte. Good enough" - das hat bei ihm edie Frage aufgebracht, "Was mache ich denn eigentlich in Zukunft mit Teams"?
Claude Code, der wohl schlechteste Produktname aller Zeiten (weil man damit eben nicht nur coden kann). Produktmenschen, Strategen, Finanzmenschen und normale Menschen, alle können damit strukturiert arbeiten, Context aufbauen, automatisieren, … Boris Cherny hat das Claude Code am Anfang in einer Woche als Wochenendprojekt gebaut. Das Interface ist ein Terminal. Für Software-Entwickler fühlt sich das wie 1985 an und genau darin liegt der Trick.
Was darunter passiert
Ein Large Language Model schickt Tool Calls raus. Unix-Commands — list, grep, execute. Die kommen zurück. Das LLM interpretiert, schickt den nächsten Call. Und so weiter. Ein glorified while loop, sagt Matthias. Der Durchbruch, den Claude 3.7 Sonnet brachte, war dass das Modell gut genug war, eine neue Fähigkeit zu bekommen: den Aufruf von Tools. In der richtigen Reihenfolge, für lange genug, dass etwas Sinnvolles dabei rauskam.
Boris Cherny hat daraus ein Arbeitsprinzip gemacht: Feature auf funktionaler Ebene abnehmen, Code nicht mehr lesen. 60 bis 70 Prozent wirft er weg. Egal, wenn die anderen 30 Prozent funktionieren. Für die meisten Entwickler ist es psychologisch brutal, weil sie 15 Jahre gelernt haben zu coden, jeden Commit zu verstehen, jeden PR zu reviewen. Jetzt verschiebt sich der Wert dieser Skills auf genau die Stellen, die früher als "soft" abgetan wurden: Architektur, Judgment, beschreiben können wie gut aussieht. Kent Beck hat vor zwei Jahren formuliert: 90 % seiner Skills sind im Wert auf Null gesunken, 10 % haben vertausendfacht.
Und bei Cherny klappt es nicht, weil er Yolo ist, sondern weil er penibel ein System aufgebaut hat.
Was Context Engineering heißt
Ein LLM ist per se stateless. Jeder Call fängt neu an. Der Thread, den man in ChatGPT siehst, wird komplett mitgeschickt, bei jedem Request. Was das System über einen zu wissen scheint, liegt daran, was man vorher reingeschrieben hat, oder an einer internen Memory, die man kaum steuern kannst.
Claude Code funktioniert anders. Man baut Kontext auf, der bleibt. Was ist das Projekt? Was die Prinzipien? Was gibt es schon? Das steht in Markdown-Dateien. Der Agent lädt den gewünschten Kontext. Man steuert das. Metapher: Read the fucking manual vs. "das Problem, das dich betrifft, steht in Kapitel 5, Absatz 4." Der Mensch kommt mit beidem irgendwie klar- aber die Qualität des Ergebnisses ist eine andere. Auch bei der LLM: Besserer, exakterer Kontext, besseres Ergebnis.
Der eigentliche Punkt hinter allem, was Matthias als "Maschine bauen" beschreibt. Erst wenn die Maschine gut gebaut ist, kann man dem Ergebnis trauen.
Matthias' persönliches CRM
Sein CRM besteht aus einem Ordner mit Markdown-Dateien. Kontakte, Aktivitäten, eine simple Folderstruktur nach Status, E-Mail und Kalender angebunden. Wenn er wissen will, was beim letzten Gespräch mit jemandem war, fragt er den Agenten. Der durchsucht alles, antwortet, schlägt nächste Schritte vor. E-Mails lässt Matthias entwerfen, schickt sie aber immer selbst raus. Human in the loop, wieder. Das Ergebnis ist trotzdem Faktor X besser als jeder normale E-Mail-Assistent, weil der echte Kontext da ist.
Dahinter steckt eine Frage, die uns den ganzen Talk beschäftigt hat: Wie viel von klassischer SaaS-Software wird kaputtgehen, weil hyperpersonalisierte Lösungen so viel besser passen? Matthias glaubt nicht, dass SaaS grundsätzlich stirbt, er aber eine Richtung : Systems of Records, die für LLMs mit ordentlichen APIs zugänglich gemacht werden. Und für viele Use Cases, wo heute irgendwas von der Stange genommen wird, das so halb nicht passt, sind kleine eigene Lösungen auf einmal eine echte Option.
Openclaw und die Voice Message
Peter Steinberger hat OpenClaw gebaut, ein Agentsystem ,basierend auf einer anderen Agentenplattform aus Österreich: pi. Er hat WhatsApp angeschlossen. Die erste Version konnte nur Text. Irgendwann schickt jemand aus Versehen eine Voice-Nachricht. Der Agent sieht: das ist keine Text-Datei. Also: Unix-Environment, Datei aufmachen, scheint Audio zu sein, was nimmt man für Audio: Whisper von OpenAI? Wie rufe ich das auf? Token holen. API Call. Transcription. Antwort zurück. Jeder einzelne dieser Schritte ist nachvollziehbar. Zusammen sieht es aus wie Magie. Das ist das Prinzip hinter allem.
Was Matthias gerade macht
Unter anderem: Eine Menge Community-Arbeit, Wissen unter die Leute bringen. Er baut AI Tinkerer Cologne (als Bonner), Teil eines globalen Netzwerks, Tüftler zusammenbringen, konkret ausprobieren was geht. Workshops mit HR-Teams, die Workflows automatisieren wollen. In ein paar Wochen London, AI Engineering Konferenz, wo er über seinen Coding Agent Pi spricht. Sein Fokus für die nächsten Wochen: rausfinden, wie weit Non-Coding-Workflows mit Cowork und ähnlichen Tools wirklich tragen.
Sein Aufruf: Schickt die harten Use Cases rüber. Die, bei denen ihr nicht weiterkommt. UNd das meinen wir ernst: Schickt sie uns! Challenge accepted!
Kapitel
00:00 Einführung in die Themen von AI und Unsicherheit
02:09 Matthias' Erfahrungen mit AI
08:14 Die Entwicklung von Software-Tools und deren Einfluss
12:10 Der Paradigmenwechsel in der Softwareentwicklung
17:40 Vertrauen in AI-gestützte Systeme und deren Nutzung
23:33 Die Anpassung an sich verändernde Technologien
24:55 Einführung in Agenten und Modelle
27:30 Erfahrungen mit Software-Entwicklung und LLMs
29:58 Anwendungen und Entdeckungen mit Claude
32:48 Kontext-Engineering und CRM-Entwicklung
34:33 Unterschiede zwischen ChatGPT und Claude
38:46 Tool-Calling und seine Bedeutung
42:33 Praktische Anwendungen von LLMs in Unternehmen
50:11 Philosophische Überlegungen zu LLMs und menschlicher Arbeit
53:33 Die Herausforderung der Spezifikation
55:07 Die Bedeutung von Kontext und Anweisungen
56:59 Zugriffsrechte und Sicherheit in der KI
59:02 Die Unterschiede zwischen Cloud Code und Desktop-Tools
01:01:01 Hyperpersonalisierung in der Softwareentwicklung
01:03:30 Die Zukunft von SaaS und hyperindividualisierte Software
01:06:15 Prototypen und agile Entwicklung
01:09:01 Das Innovationsdilemma großer Unternehmen
01:13:24 Herausforderungen bei der Implementierung neuer Technologien
01:14:07 Herausforderungen der KI-Nutzung
01:16:50 Kosten und Ressourcenmanagement bei KI
01:20:10 Abonnements und Token-Management
01:22:34 Die Bedeutung des Experimentierens
01:27:13 Die Rolle der KI in der Zukunft
01:33:41 Bildung und die Zukunft der Arbeit
