Schweißtreibend auch am Nachmittag ging ich rüber zum Nachbarn, der ein Problem mit dem Android Handy hatte. Ich verdiene gut daran.
Heute gab’s €10 für die Eingabe von email und Passwort nach dem Factory Reset, was wohl wegen Malware mal notwenidg war. Whatsapp spielte auch das Backup zurück – alles gebongt.
Jedes Jahr werde ich durch die Domains an nicht durchgeführte Projekte erinnert. Jetzt war’s popfit.net und discoursehost.com. Weg fehlt themestarz.com. Eigentlich muss man nur machen, die Sachen lösen sich dann schon, wenn auch die ganze Technik eben voller Bugs und Probleme ist, wenn man mal tiefer reinschaut. Ich zog wegen ein paar Euro von namecheap auf http.net um, die bei den meisten Domains bessere Preise haben. Der erste Versuch schlug noch wegen Locks fehl, der neue jetzt in der Warteschleife.
Warte werde ich doch erst mal mit der SSD. Mit 480 GB will ich Win10 und Ubuntu 18.04 im Dual Boot machen. Ich schaute nach Artikeln. Das wird einige Stunden brauchen, die ich jetzt nicht habe. Wochenende vielleicht.
Nach ’ner Pizza machte ich einen kurzen Heckenschnitt von einer Tonne. Damit wird die Abholung morgen sinnvoller genutzt.
In der Nacht wurde es dann wieder irre. Wenn ich mir den HTML Code von Wikipedia anschaue, wird mir schlecht. Markdown ist wunderbar dagegen aber kann eben die ganzen bunten Tabellen und Boxen nicht darstellen. Die Idee war, Mediawiki doch lokal laufen zu lassen und dann über die API die Templates zu rendern. Ich habe ja die Template-Abfrage im MD-Konverter, was für einfache Sachen OK geht. Die ZIM Daten auseinanderzufummeln sah ich als noch hackiger an.
Ich installierte somit auf MAMP Mediawiki. Das lief soweit, so gut. Es gibt ein php import tool, was die XML Daten in die DB spielt.
php importDump.php --conf ../LocalSettings.php ./enwikivoyage-latest-pages-articles-multistream.xml
Zuerst hatte ich Probleme, weil wohl der MySQL-Server nicht unter localhost sondern nur 127.0.0.1 auffindbar war. Muss man erst mal drauf kommen, weil ich schon im Dumper herumhackte. Dann war das Ding einfach unbrauchbar langsam. Mit 6 Artikeln pro Sekunde wartet man da Stunden. Dann stellte ich das alles auf SQLite um -> 7 Artikel pro Sekunde – kaum besser. An der SSD kann’s nicht liegen oder warum so lahm? Ich machte eine 1GB RAM Disk, startete SQLite von da, doch hier pendelte sich alles auch nur um die 8,5 Artikel/sec ein.
Mediawiki ist ein Monster. Die Anzahl von Tools und Dateien ist irre. Da stecken einige Leben Entwicklungszeit drin. Wenn ich mir den jetzigen Workflow so anschaue, sehe ich schwarz, wie das automatisch alles gepflegt werden soll. Man muss wohl doch die XML in SQL umwandeln. Da ich aber inzwischen auch mit meiner Zeit stark investiert bin, will ich das Ding jetzt einfach beenden. Die Template-Sprache ist eben zu parsen aber daraus wieder MD/HTML zu generieren geht wohl nur, indem man das Monster mit dem Markup füttert. Hier sollte mal jemand einen Golang Importer bauen. Zu Zeit ist das ganze Tooling ziemlicher Shit für die paar Seiten, die ich generieren will.
Ich brauche ja nur nur die Templates. Im ca. 340MB XML schnell und einfach zu finden:
und 1452 werden davon gezählt(!!!) Das ist einfach nur noch irre, aber die Templates kann ich auch ohne komische Linux-only Tools in ca. 5′ importieren. Muss ich morgen probieren. 6:15








0 Responses to “Android-Hilfe, SSD, Domains, Hecke, Mediawiki”