S3cmd

ExpandDrive ist ganz nett, mountet auch S3 auf dem Mac. Etwas langsam aber ich kann so schneller checken, wie die Sachen laufen. Das erste Gigabyte ist bei S3 kostenlos, das sind auch eine Menge HTML-Seiten.

Probleme mit der Encryption der Frankfurt Region. Einige Tools spinnen da und Sublime Text hängte sich bei den Expandrive Problemen gleich fast auf.

Für die Shell nahm ich boto und die boto_utils. Lokal ging das irgendwie nicht, ist ja auch mehr für Python-Code gedacht. Der Standard für die Kommandozeile scheint sowieso s3cmd. Damit ging dann auch, was echt cool ist. Rekursive Uploads auf S3. Jetzt nur noch die Site über Route 53 auf dem DNS verlinken? Das ging fix auch mit ’nem einfachen CNANME-Record. Nur das WWW redirect musste ich noch einrichten.

Alles super und ein netter kleiner Erfolg. Vielleicht haue ich den Blog auch gleich auf S3, wie auch so viele andere normale Seiten. Man könnte die ganzen WordPress-Sachen statisch rendern und dann von S3 aus laufen lassen. Das würde einige Kosten sparen. Ich nahm erst mal WWWizer für die Domain redirect statt ein nginx redirect über den eigenen Server. Mal sehen, was das live ist. Eine Bucket Policy für Public fand ich auch. Brauche ja nur Frankfurt für die deutschen Seiten, sodass ich mir Cloudfront sparen kann.

Erst mal zufrieden bis 17:00. Ich machte dann das 301 redirect über den eigenen nginx server weil ich ja kein www davor haben will WWWizer macht das wohl davor.

Ich komme der Server-Alternative etwas näher. Ich sollte einen weiteren virtual server machen, ist jetzt in der default config und reicht erst mal. Danach kann ich Sachen viel einfacher, schneller und billiger live stellen. Alles zeigt auf Amazon, Erfolg. Nur wollte ich die IP, die jetzt unter www.popfeed.de ist eigentlich nicht exposen. Die Pings auf beide laufen gleich lang.

Ich installierte mal pbzip2 – also die Parallel-Version von BZIP2 auf dem Server und änderte das SVN contab script. Da wird echt die CPU komplett genutzt. Weiß nicht, ob das so gut ist.

Die nginx config machte ich so, dass jetzt alle Domains, mit ’nem A-Record drauf ohne ‚www‘ zurückgegeben werden per ‚return 301 $scheme://$http_host$request_uri;‘. Damit wäre das S3-Problem gelöst mit oder ohne www jetzt gelöst. Eine Weiterleitung eines anderen Buckets ist irgendwie nicht so richtig sauber und es gibt ja nur max. 100 Buckets pro Nutzer.

Weil das alles so schön klappte, will ich nun endlich mal eine Site online haben. Das mit dem Scraping dauert. Was ist die einfachste Site – ‚Display der IP Adresse. Das geht auch mit Javascript und einem WebRTC hack, der auch die lokale IP anzeigt. Ich registrierte mir ipinfo.co bei namecheap, die als einzige noch frei war. Dann startete ich mit dem purecss.io Framework von Yahoo. Na mal sehen. Das mit ’nem netten Design ist gar nicht so einfach mit CSS, wenn man kaum Ahnung hat.

Das Redirect klappte dann auch nicht, bis ich das fand. Mitternacht erst mal Schluss. Ziemlich lahm, meine Skills.

0 Responses to “S3cmd”


Kommentare sind zur Zeit nicht möglich.
2015-03-11_08-50-20_IMGP8170.jpg
2015-03-11_08-50-20_IMGP8170.jpg
2015-03-11_09-46-12_2015-03-11-09.46.12.jpg
2015-03-11_09-46-12_2015-03-11-09.46.12.jpg
2015-03-11_14-51-45_2015-03-11-14.51.45.jpg
2015-03-11_14-51-45_2015-03-11-14.51.45.jpg
2015-03-12_01-11-21_IMGP8172.jpg
2015-03-12_01-11-21_IMGP8172.jpg