有給消化1日目

本日から有給消化の日々が始まりました。 時間を持て余しているので、ブログでも付けます

やったこと

S3

  • 家の写真は外付けのHDDに入れています
  • 外付けのHDDは冗長化されていない、かつ24時間起動しているため、何かあった時のデータの破損等が懸念事項でした
  • 各種クラウドサービスに写真を預ける選択肢もあったのですが、そこそこ費用が掛かるため断念。
  • データが消えた時のコストを考えると、どこかにバックアップしたほうが健全であろうということで、S3にアップロードすることにしました

選定

  • S3にはいくつかのタイプがあります
  • 今回の要件としては、「何かあった時に万が一の手段として残しておく」ということです。
  • そのため、データを取得することは基本的にありません。
  • なので、今回は一番費用のかからない「S3 Glacier Deep Archive」を選択しました。
  • また、何かあった場合のバックアップなので、東京ではなくアメリカのリージョンを選択しています。

S3 Glacier Deep Archiveについて

  • putの単位で費用がかかるため、小さなファイル単位でのuploadはあんまりなようです。
  • 写真は1枚1枚が小さいため、そのままuploadするには適さなかったので、フォルダ単位で圧縮することにしました
    • よくよく考えてみると、写真なので圧縮せずにtarでもよかった気がしますね。。

圧縮、upload

  • イベント単位でフォルダを作成していたので、その単位でtar.gzにしました
  • が、ネットワーク経由でファイルを見ると激重で全然進まず。。
  • ネットワークでの取得をあきらめて、直接接続して実行しました。
  • 圧縮したものは、以下のようにS3にupload。
docker run --rm -ti -v C:\Users\xxxx\Document\.aws:/root/.aws -v C:\Users\xxxx\Document\target:/aws amazon/aws-cli s3 sync . s3://バケット名/ --storage-class DEEP_ARCHIVE

docs.aws.amazon.com

  • が以下のようなエラーがでてうまくいかず。。
docker: Error response from daemon: error while creating mount source path
  • 原因を調べてみると、Pathがなんかうまく見れてない様子。いろいろ調べてみるとDockerのデータを削除して再起動するといいらしい。
  • 今回はローカルに必要なファイルをコピーして実施しました。

費用

  • uploadでは 0.14ドルかかったらしいです。
  • 保存もそれほどかかる想定ではないけど、どうなるかな。

railsチュートリアル

railstutorial.jp

  • 今日はやっと第4章。
  • メソッドに?を付ける文化とか、組み込みの関数をoverrideできるとかいろいろ不思議なところはありますが、新しいことを進めるのはやっぱり面白いですね。
  • 2章くらいでやったページ作成とDBの定義は簡単すぎてびっくりしました。
  • 初期に作る場合によく選択されるっていうのも納得です。