--> -->
OSSのZenko(scality/s3server)サーバーの構築記です。
これを立てることで、以下のような事ができます。
まず1のMastodonサーバーについて、本題では無いので簡単に触れて終わりにします。
私の立てているサーバーはさくらのクラウドを使用していました。自宅サーバーもあるのですが、可用性の面でサービス稼働には使用したくありません。一方でMastodonサーバーは画像が数十GB単位で溜まります。これに合わせてさくらの契約を増やしていくと費用が増大してしまいますので、画像サーバーだけ自宅に逃がす、ということができるようになります。
というわけで構築手順です。
dockerを使います。
docker run -v /var/s3/data:/usr/src/app/localData -v /var/s3/metadata:/usr/src/app/localMetadata -v /var/s3/config.json:/usr/src/app/config.json -v /var/s3/authdata.json:/usr/src/app/conf/authdata.json -p 8000:8000 -d --restart=always scality/s3server
これはデータ永続化のため、データ領域をローカルの/var/s3以下に配置している例です。
また、docker再起動時にも自動起動するよう、--restart=alwaysを付けています。何回もこのコマンドを実行すると何個もの自動起動が登録されてしまうので注意です。
2つの設定ファイル、config.jsonとauthdata.jsonもローカルにアサインしています。
ますはdockerコンテナにログインし、オリジナルのファイルをコピーしてきます。
# docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES cf2d3cf55966 scality/s3server "/usr/src/app/docker…" 10 hours ago Up 9 hours 0.0.0.0:8000->8000/tcp eager_lamport
# docker exec -i -t cf2d3cf55966 /bin/bash root@cf2d3cf55966:/usr/src/app# cat config.json
各々の設定ファイルは以下の通りです(内容はイメージです(笑))。
■authdata.json
1 2 3 4 5 6 7 8 9 10 11 12 13 14 |
|
5,7行目は本当にこの通りにしています(元ファイルがこうだった)。
■config.json
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 |
|
ここではrestEndpointsのみを修正しています。
restEndpointsは、どこ向けのアクセスを許可するかを記述します。
バーチャルドメインで複数のサーバー名を持っている場合など、複数の記述が必要です。
なお、ここは1つのポイントで、今回はリバースプロキシを用いてlocalhostからアクセスしますがlocalhostは不要です。理由は次項で。
私はCyberDuckを使いましたが、S3 Browserというのもあるようです。
HTTPで接続するにはHTTP Profileが必要です。
この辺は特に難しい事は無いので書きませんが、詳しく知りたい方は以下のサイトがとても参考になります。
Scality S3 Server を試してみる
Scality S3 Server (Object Storage) を使ってみる
当サーバーの運用では、表(おもて)はApacheで受けて、バックエンドとしてZenkoサービスを動かす計画です。従って、zenkoはポート8000で稼働したまま、apacheにリバースプロキシ設定を行います。
しかし、実は一番ここで填まりました。ポート8000へ直接アクセスするのはすぐにできるようになるのですが、表にApacheを立ててリバースプロキシの設定をすると、何故か認証エラーになってしまうのです。(この時はconfig.jsonのrestEndpointsにはlocalhostを追記しています)
エラー内容は以下です。
SignatureDoesNotMatch The.request.signature.we.calculated.does.not.match.the.signature.you.provided.
そこで、8000にアクセスした時と80にアクセスした時の通信内容をtcpdumpで採取して比較してみます。
tcpdump -i lo port 8000 -X
すると、送信時のHost:ヘッダが異なることが分かりました。
正常時(8000へ直接アクセス):
0x00b0: 3835 350d 0a48 6f73 743a 2073 332e 7765 855..Host:.s3.we 0x00c0: 6264 622e 636f 2e6a 700d 0a78 2d61 6d7a bdb.co.jp..x-amz
異常時(80へアクセス):
0x0040: 2e31 0d0a 486f 7374 3a20 6c6f 6361 6c68 .1..Host:.localh 0x0050: 6f73 743a 3830 3030 0d0a 4461 7465 3a20 ost:8000..Date:.
その他Credential情報は同じでした。従って「signature.we.calculated.does.not.match」エラーの原因は、signatureの計算にhost名が使われており、サーバー側で把握しているhost名とクライアント側で思っているhost名が異なるためではないかと予想されました。
そこで、リバースプロキシの設定にProxyPreserveHost Onを足してみます。
■/etc/httpd/conf.d/vhost.conf
#### s3 <VirtualHost 61.206.124.164:80> ServerName s3.webdb.co.jp RewriteEngine On RewriteCond %{HTTP:Upgrade} =websocket [NC] RewriteRule /(.*) ws://localhost:8000/$1 [P,L,NE] RewriteCond %{HTTP:Upgrade} !=websocket [NC] RewriteRule /(.*) http://localhost:8000/$1 [P,L,NE] ProxyPassReverse / http://localhost:8000/ ProxyPreserveHost On </VirtualHost>
内容はほぼRocketChatの引き写しです(笑)。6,8行目のNEは必要な場面があるか分かりませんが付けています(再エンコード禁止)。
アクセス全てをlocalhost:8000へ転送しますが、Host名は書き換えないという設定です。
これでCyberduckからポート80にアクセスしても無事ログインできるようになりました。
httpsは、apacheに通常のSSL設定を行えば後はhttpと同じです。
(最終的にはこう)