Bessere Laune bei Aprilwetter heute. Es bleibt noch die Frage, wie die restlichen Schrankteile in mein Schlafzimmer passen.
Ich schiele noch immer auf den NUC12SNKi72. Mich stört eben nur die H CPU und M GPU. Alles auf Laptop getunt, daher kein Megasprung, wenn es in dem Mini Formfaktor aber nicht anders geht. Ich ließ nochmal Benchmarks laufen und staunte schon, dass bei OpenCL da 9fache Performance gegenüber einem HP ohne dGPU lt. Geekbench zu erwarten sei. Das wäre dank Arc770M doppelt so schnell wie ein Mac mini mit M2 Pro (100K vs 50K) bei etwa gleicher CPU Performance zwischen M2 Pro und i5-12700H. Doppelter Preis für den Mac mini wohlgemerkt – viel weniger Stromverbrauch aber auch. Die 12700H CPU Multicore ist mind. doppelt so schnell wie mein i5-1135G7. Man kriegt eben bei Intel das, was man (auch mit Watt) bezahlt. Mit dem HP250 G8 (i5-1135G7) als Basis ergibt Performance -> 1/3 NUC11ATKC4 (N5105) -> 1/2 Lenovo (N4200).
Falls es einen Black Friday Deal für den NUC gäbe (unter €600?), werde ich mich dann Ende November entscheiden. Momentan scheinen Abos zu AI Diensten noch die beste Value, läppern sich aber eben auch auf hunderte Euro im Jahr. OpenAI bietet mit dem Enterprise Dienst nun aber auch Schutz von sensitiven Infos. Weniger LLM Hilfe, als GPT4, wäre aber auch dumm. ChatGPT hat seit Tagen Probleme mit der History. Ist mal da, öfters aber weg. Ärgerlich und zeigt eben auch, warum lokale AIs wichtig sind.
Von GPT4 ließ ich mir endlich mal das nested comment construct in Lua erklären.
--[[ -- Starts outer comment
print('Lua is love')
--[=[]] -- Remains a comment inside outer block
print('Lua is life')
--]=] -- Ends outer comment
Man muss den ersten eben auch schließen „–[=[]]“ – macht nun Sinn.
Dann checkte ich mal die zim tools und ließ EU Wikivoyage von 70MB ZIM auf ca. 300MB HTML in ’ner Dir dumpen. Das ging inzwischen ausreichend schnell. Der Rust dumper ging wohl noch schneller, ist eber weniger aktuell.
Per soupalt könnte man die Infos besser aus den Seiten rausziehen. Alles in allem aber keine echte Neuentwicklung gegenüber meiner Architektur mit Python vor Jahren. Ungelauncht blieb es bei Tests. „Soupalt“ kann ich mir nie merken, hat aber eben ein LUA Plugin Interface. Bei Wikivoyage sollte ich iFrame und slideFrame nutzen, statt lokal alles zu hosten, bis eben die Leute kommen. Besser wäre eine runtime Extraktion, weil ich eben nicht immer alle ZIM Daten behalten will. Das geht aber wohl weniger den ZIM ist bei der Extraktion etwas zu langsam für die Google crawler.
Alles interessant aber erst mal irrelevant, bis die Videosite wieder läuft.
Abends zu Aldi. Burger zum Abendessen.
Bin irgendwie angeknackst und so spielte ich eher mit Sachen herum. GPT4 für ein Powershell Abfragescript, wie ich es für Python habe.
Ich schaute mir Videos der TikTok TTS Frau „Jessie“ an. Die gibt’s ja in echt. Bark läuft auf ein paar GB VRAM und ist echt super Qualität, wenn auch in Colab zu umständlich. Alle guten TTS Services kosten $20-$50/Monat und sind dann doch schon teuer wie bspw. Naturalreaders. Ich ließ mir mal einen mydealz Artikel zusammenfassen und dann als Homeshopping Text umwandeln. Dann machte GPT4 sogar noch SSML Markup für Pausen und so. Also könnte man echt einen HTML Site zu Video Stream mit Audio erzeugen. Super Möglichkeiten überall für Solo TV Kanäle. Die Content-Flut wird irre. Beim Test merkte ich, dass GPT3.5 standardmäßig erst auf Deutsch gefragt werden muss und echt Eingaben schlechter versteht.
0 Responses to “Benchmarks und Performance”