GLM und Claude

Wieder schaute ich etwas zu LLM Entwicklungen an und kaufte heute doch mal die Z.AI Mini-Subscription für $3 im ersten und $6 folgende Monate.

Für den ersten Test, setzte ich den NUC ein. Wenn da was schief läuft, wäre das weniger tragisch. Den YOLO Mode teste ich noch nicht, viele Bestätigungen von Hand. Oft kommen aber auch Timeouts und Fehler beim öffnen von Files. Zu langsam?

Claude Code bekommt hier einfach andere Env Variablen, die Prompts gehen dann nach China. Auch Cline in VScode funktionierte damit – mit ’nem anderen API Endpoint aber. Wenn man normale API Preis ezahlen würde, käme eine Aufgabe auf $1-$2. Viel zu teuer. Jetzt muss ich noch mit Codex was machen. Die 150 z.AI Prompts pro 5h sollten aber erst ausreichen.

Als Testapp ließ ich eine Bildergallerie aus meiner Blog Struktur in Air bauen. Das klappte echt gut und ist schon komfortabler, als Copy & Paste in 2-3 Korrektur Prompts.

Ansonsten wurden zwei Ladungen Wäsche. Ein großes super Abendessen wurde mir bereitet.

Dann war ich müde.

Der Context mit Agents bläht sich schon schnell auf. Ein AGENTS.md für Air kam auch schnell auf 400+ Zeilen.

Ich brauche jetzt nur noch eine Lösung, VibeVoice billig einzusetzen. XMLUI mit dem MCP Server portierte ich auch mal und erfuhr dabei von der Steampipe Extension, die auch nützlich scheint. Viele Sachen aber man kann eben jetzt immer mit den LLMs basteln, ohne was zu verkaufen. Weiterhin nur Spesen.

Trotzdem schien das heute mal ein Schritt nach vorne. Mehr Agents und ein Mix mit Webinterfaces ist schon nett. Da habe ich irgendwie zu lange gezögert.

0 Responses to “GLM und Claude”


  • Keine Kommentare

Antworten

You must be logged in to post a comment.