[JAWS-UG CLI] AWS Batch #3 環境の破棄(Unmanaged 編)

前提条件

EC2への権限

EC2、ECS、AWS Batch などに対してフル権限があること。

0. 準備

0.1. ジョブの作成と実行の完了

AWS Batch #2 ジョブの作成と実行 が終わっていること

0.2. 変数の確認

#1, #2 から引き続き利用する変数を確認します

コマンド
cat << ETX

    CFN_STACK_NAME:       ${CFN_STACK_NAME}
    COMPUTE_ENV_NAME:     ${COMPUTE_ENV_NAME}
    JOB_QUEUE_NAME:       ${JOB_QUEUE_NAME}
    JOB_DEFINITION_NAME:  ${JOB_DEFINITION_NAME}

    CONRAINER_PROPS_FILE: ${CONRAINER_PROPS_FILE}

ETX
結果(例)

    CFN_STACK_NAME:       aws-batch-xxxxxxxxxx
    COMPUTE_ENV_NAME:     aws-batch-refarch
    JOB_QUEUE_NAME:       aws-batch-job-queue-xxxxxxxxxx
    JOB_DEFINITION_NAME:  aws-batch-job-def-xxxxxxxxxx

    CONRAINER_PROPS_FILE: aws_batch_container_props.json

0.3. AWS CLIのバージョン

以下のバージョンで動作確認済

  • AWS CLI 1.11.36
コマンド
aws --version
結果(例)
 aws-cli/1.11.36 Python/2.7.5 Darwin/13.4.0 botocore/1.4.93

バージョンが古い場合は最新版に更新しましょう。

コマンド
sudo -H pip install -U awscli

0.4. AWS アカウントの属性

EC2-Classic が見えない AWS アカウントであること。

コマンド
AWS_SUPPORT_PLATFORMS=$( 
         aws ec2 describe-account-attributes 
           --query 'AccountAttributes[?AttributeName == `supported-platforms`].AttributeValues[].AttributeValue' 
           --output text 
) && echo ${AWS_SUPPORT_PLATFORMS}
結果
 VPC

1. リソースの削除

1.1. 定義ファイルの削除

コマンド
rm -f ${CFN_STACK_NAME}.yaml ${CFN_STACK_NAME}-ecs.yaml 
    ${CONRAINER_PROPS_FILE}

1.2. ジョブ定義の無効化

コマンド
for arn in $( aws batch describe-job-definitions 
    --job-definition-name ${JOB_DEFINITION_NAME} 
    --status ACTIVE 
    --query 'jobDefinitions[].jobDefinitionArn' 
    --output text)
do
  aws batch deregister-job-definition 
    --job-definition $arn
done
結果
返り値なし

1.3. ジョブキューの削除

ジョブキューを削除するには、まずキューを無効化します。

コマンド
aws batch update-job-queue 
  --job-queue ${JOB_QUEUE_NAME} 
  --state DISABLED
結果(例)
{
    "jobQueueArn": "arn:aws:batch:us-east-1:xxxxxxxxxxxx:job-queue/aws-batch-job-queue-xxxxxxxxxx", 
    "jobQueueName": "aws-batch-job-queue-xxxxxxxxxx"
}

その上で削除します

コマンド
aws batch delete-job-queue 
  --job-queue ${JOB_QUEUE_NAME}
結果
返り値なし

[ 重要!!]
AWS Batch にはまだ wait コマンドがなく不便なのですが、
順序よく消さないと INVALID な状態となりリソースが消せない
可能性があります。なので、確実に消えたことを確かめます。

コマンド
aws batch describe-job-queues 
  --job-queues ${JOB_QUEUE_NAME}
結果
{
    "jobQueues": []
}

1.4 ECS クラスタの削除

コマンド
aws cloudformation delete-stack 
  --stack-name ${CFN_STACK_NAME}-ecs

削除が完了するまで待機します

コマンド
aws cloudformation wait stack-delete-complete 
  --stack-name ${CFN_STACK_NAME}-ecs

1.5. コンピューティング環境の削除

コンピューティング環境も、削除するにはまず無効化が必要です。

コマンド
aws batch update-compute-environment 
  --compute-environment ${COMPUTE_ENV_NAME} 
  --state DISABLED
結果(例)
{
    "computeEnvironmentName": "aws-batch-refarch", 
    "computeEnvironmentArn": "arn:aws:batch:us-east-1:xxxxxxxxxxxx:compute-environment/aws-batch-refarch"
}

その上で削除します

コマンド
aws batch delete-compute-environment 
  --compute-environment ${COMPUTE_ENV_NAME}
結果
返り値なし

[ 重要!!] しばらく待ち、こちらも正常に消えたことを確認します。

コマンド
aws batch describe-compute-environments 
  --compute-environments ${COMPUTE_ENV_NAME}
結果
{
    "computeEnvironments": []
}

1.6. VPC や IAM の削除

コマンド
aws cloudformation delete-stack 
  --stack-name ${CFN_STACK_NAME}
結果
返り値なし

完了

お疲れさまでした

続きを読む

シンプルなRails環境を最速プロビジョニング。各種ツールの利用比較 (Chef [Berkshelf], Ansible [Playbook], Docker [Docker Compose], 手動)

プロビジョニングのための構成管理フレームワークには様々なものがあり、例に挙げると以下のようなものがあります。

  • Chef
  • Ansible
  • Puppet
  • SaltStack
  • CFEngine
  • PowerShell DSC
  • Itamae
  • AWS CloudFormation
  • Terraform
  • Mobingi

ItamaeはCookpadの社員の方が開発した、機能がシンプルで学習コストが低く、Chefを簡略化したようなものです。AWS CloudFormationはAWS上のサーバなどの構成をJSONまたはYAMLで記述して管理するものです。TerraformVagrantPackerなどで有名なHashiCorp社により開発されたもので、AWSやGCP、Azureなどの様々なクラウドに対応した管理ツールとなっています。Mobingiは、従来のようなChefやAnsibleは開発者をターゲットとした扱いの難しいものとして、クラウドのデスクトップとしてGUIベースで管理できるというものです。

ここでは、Chef,Ansible,Dockerによる設定例を取り上げます。
ChefはBerkshelf、AnsibleはAnsible Playbook、DockerはDocker Composeを用いました。また、手動による設定のインストールの例も取り上げました。

例ではそれぞれ最後に、ChefはAWS OpsWorks、AnsibleはAmazon EC2、DockerはAmazon ECSを例に行っていますが、他の環境の場合は適宜置き換えて対応してください。

Chef [Berkshelf]

ローカルでテストせずにOpsWorksでデプロイする場合はVagrant周りの設定は不要で、サブタイトルに(※)のマークを入れた

  • Gemfileの作成
  • Berksfileの作成
  • Recipeの作成

の3つをやれば良い。

ディレクトリ構成

.
├── Berksfile
├── Gemfile
├── README.md
├── Vagrantfile
└── site-cookbooks
    ├── nginx
    │   ├── CHANGELOG.md
    │   ├── README.md
    │   ├── attributes
    │   │   └── default.rb
    │   ├── metadata.rb
    │   ├── recipes
    │   │   └── default.rb
    │   └── templates
    │       └── default
    │           └── nginx.conf.erb
    ├── nodejs
    │   ├── CHANGELOG.md
    │   ├── README.md
    │   ├── attributes
    │   │   └── default.rb
    │   ├── metadata.rb
    │   └── recipes
    │       └── default.rb
    └── ruby-env
        ├── CHANGELOG.md
        ├── README.md
        ├── attributes
        │   └── default.rb
        ├── metadata.rb
        ├── recipes
        │   └── default.rb
        └── templates
            └── default

VagrantでCentOS 6.7の環境設定

$ vagrant box add centos6-7 https://github.com/CommanderK5/packer-centos-template/releases/download/0.6.7/vagrant-centos-6.7.box
$ mkdir -p mkdir ./projects/chef_zero_test
$ cd projects/chef_zero_test
$ vagrant init centos6.7

Vagrantの設定ファイルを以下のように編集する。

$ vim Vagrantfile
Vagrant.configure("2") do |config|
  config.vm.box = "centos6.7"
  config.vm.box_url = "https://github.com/CommanderK5/packer-centos-template/releases/download/0.6.7/vagrant-centos-6.7.box"
  config.vm.network "private_network", ip: "192.168.33.10"
  config.vm.provider "virtualbox" do |vb|
    vb.customize ["modifyvm", :id, "--memory", "4096"]
  end
end

このままでVagrantを立ち上げると、SSH接続の設定で

default: Warning: Authentication failure. Retrying...

のようなエラーが繰り返し表示されて権限の問題でできないので、VagrantにSSHで入って

vagrant ssh

ホスト側で以下のコマンドを実行する。

cd /home
chmod 755 -R ./vagrant
exit

http://qiita.com/jshimazu/items/9db49ce64478e82d511e

Vagrantを立ち上げる。

vagrant up

Vagrantfileの設定

Vagrantfileをプロビジョニングの設定を以下のように追加する。

Vagrant.configure("2") do |config|
  config.vm.box = "centos6.7"
  config.vm.box_url = "https://github.com/CommanderK5/packer-centos-template/releases/download/0.6.7/vagrant-centos-6.7.box"
  config.vm.network "private_network", ip: "192.168.33.10"
  config.vm.provider "virtualbox" do |vb|
    vb.customize ["modifyvm", :id, "--memory", "4096"]
  end

  config.vm.provision :chef_solo do |chef|
    chef.cookbooks_path = ["./cookbooks", "./site-cookbooks"]
    chef.json = {
      nginx: {
        env: ["ruby"]
      }
    }
    chef.run_list = %w[
      recipe[yum-epel]
      recipe[nginx]
      recipe[ruby-env]
      recipe[nodejs]
    ]
  end
end

Gemfileの作成(※)

以下のようにGemfileを作成する。

$ vim Gemfile
source 'https://rubygems.org'

gem 'chef'
gem 'knife-solo'
gem 'berkshelf'
$ cd projects/chef_zero_test
$ rbenv exec bundle install

Berksfileの作成(※)

以下のようにBerksfileを作成する。

$ vim Berksfile
source "https://supermarket.chef.io"

cookbook "yum-epel"
cookbook "nginx", path: "./site-cookbooks/nginx"
cookbook "ruby-env", path: "./site-cookbooks/ruby-env"
cookbook "nodejs", path: "./site-cookbooks/nodejs"

※最初、site :opscodeの宣言方法はDeplicated

Recipeの作成(※)

nginxのレシピ

1.Cookbookの作成。

bundle exec knife cookbook create nginx -o ./site-cookbooks

2.Recipeファイルの作成。

vim site-cookbooks/nginx/recipes/default.rb
default.rb
include_recipe "yum-epel"

package "nginx" do
  action :install
end

service "nginx" do
  action [ :enable, :start ]
  supports :status => true, :restart => true, :reload => true
end

template 'nginx.conf' do
  path '/etc/nginx/nginx.conf'
  source "nginx.conf.erb"
  owner 'root'
  group 'root'
  mode '0644'
  notifies :reload, "service[nginx]"
end

3.attributeファイルの作成。

vim site-cookbooks/nginx/attributes/default.rb
default.rb
default['nginx']['env'] = []

4.nginx.confのテンプレートファイルの作成。

sudo cp /usr/local/etc/nginx/
nginx.conf ~/workspace/chef-tests/chef-test/projects/chef_zero_test/site-cookbooks/nginx/templates/default/nginx.conf.erb
vim site-cookbooks/nginx/template/default/nginx.conf.erb
nginx.conf.erb
user  nginx;
worker_processes  1;

error_log  /var/log/nginx/error.log warn;
pid        /var/run/nginx.pid;


events {
    worker_connections  1024;
}


http {
    include       /etc/nginx/mime.types;
    default_type  application/octet-stream;
    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

    access_log  /var/log/nginx/access.log  main;
    sendfile        on;
    keepalive_timeout  65;

    upstream app_server {
      server unix:/tmp/unicorn.sock;
    }

    server {
        listen       80 default_server;
        server_name  _;

        location / {
            rewrite ^/app_server/(.+) /$1 break;
            proxy_pass http://app_server/$1;
        }
    }
}

Rubyのレシピ

1.Cookbookの作成。

$ bundle exec knife cookbook create ruby-env -o ./site-cookbooks

2.Recipeファイルの作成。

$ vim site-cookbooks/ruby-env/recipes/default.rb
%w{vim git openssl-devel sqlite-devel readline-devel}.each do |pkg|
    package pkg do
        action :install
    end
end

git "/home/#{node['ruby-env']['user']}/.rbenv" do
    repository node["ruby-env"]["rbenv_url"]
    action :sync
    user node['ruby-env']['user']
    group node['ruby-env']['group']
end

template ".bash_profile" do
    source ".bash_profile.erb"
    path "/home/#{node['ruby-env']['user']}/.bash_profile"
    mode 0644
    owner node['ruby-env']['user']
    group node['ruby-env']['group']
    not_if "grep rbenv ~/.bash_profile", :environment => { :'HOME' => "/home/#{node['ruby-env']['user']}"  }
end

directory "/home/#{node['ruby-env']['user']}/.rbenv/plugins" do
    owner node['ruby-env']['user']
    group node['ruby-env']['group']
    mode 0755
    action :create
end

git "/home/#{node['ruby-env']['user']}/.rbenv/plugins/ruby-build" do
    repository node["ruby-env"]["ruby-build_url"]
    action :sync
    user node['ruby-env']['user']
    group node['ruby-env']['group']
end

execute "rbenv install #{node['ruby-env']['version']}" do
    command "/home/#{node['ruby-env']['user']}/.rbenv/bin/rbenv install #{node['ruby-env']['version']}"
    user node['ruby-env']['user']
    group node['ruby-env']['group']
    environment 'HOME' => "/home/#{node['ruby-env']['user']}"
    not_if { File.exists?("/home/#{node['ruby-env']['user']}/.rbenv/versions/#{node['ruby-env']['version']}")}
end


execute "rbenv global #{node['ruby-env']['version']}" do
    command "/home/#{node['ruby-env']['user']}/.rbenv/bin/rbenv global #{node['ruby-env']['version']}"
    user node['ruby-env']['user']
    group node['ruby-env']['group']
    environment 'HOME' => "/home/#{node['ruby-env']['user']}"
    not_if { File.exists?("/home/#{node['ruby-env']['user']}/.rbenv/versions/#{node['ruby-env']['version']}")}
end


execute "rbenv shell #{node['ruby-env']['version']}" do
    command "/home/#{node['ruby-env']['user']}/.rbenv/bin/rbenv shell #{node['ruby-env']['version']}"
    user node['ruby-env']['user']
    group node['ruby-env']['group']
    environment 'HOME' => "/home/#{node['ruby-env']['user']}"
    not_if { File.exists?("/home/#{node['ruby-env']['user']}/.rbenv/versions/#{node['ruby-env']['version']}")}
end

3.attributeファイルの作成。

$ vim site-cookbooks/ruby-env/attributes/default.rb
default['ruby-env']['user'] = "vagrant"
default['ruby-env']['group'] = "vagrant"
default['ruby-env']['version'] = "2.3.1"
default['ruby-env']['rbenv_url'] = "https://github.com/sstephenson/rbenv"
default['ruby-env']['ruby-build_url'] = "https://github.com/sstephenson/ruby-build"

※EC2にデプロイする場合は以下のようにuserとgroupの内容をec2-userにする。

default['ruby-env']['user'] = "ec2-user"
default['ruby-env']['group'] = "ec2-user"
default['ruby-env']['version'] = "2.3.1"
default['ruby-env']['rbenv_url'] = "https://github.com/sstephenson/rbenv"
default['ruby-env']['ruby-build_url'] = "https://github.com/sstephenson/ruby-build"

4..bash_profileのテンプレートファイルの作成

$ vim site-cookbooks/ruby-env/template/default/.bash_profile.erb
bash_profile.erb
# .bash_profile

if [ -f ~/.bashrc] ; then
    . ~/.bashrc
fi

PATH=$PATH:$HOME/bin
export PATH="$HOME/.rbenv/bin:$PATH"
eval "$(rbenv init -)"

Node.jsのレシピ

1.Cookbookの作成。

$ bundle exec knife cookbook create nodejs -o ./site-cookbooks

2.Recipeファイルの作成。

$ vim site-cookbooks/nodejs/recipes/default.rb
bash "install nodejs" do
    user "root"
    cwd "/tmp"
    code <<-EOC
        curl --silent --location https://rpm.nodesource.com/setup_6.x | bash -
        yum -y install gcc-c++ make nodejs
     EOC
end

Berkshelfの実行 + Vagrantのプロビジョニング

Berkshelfを実行して、Vagrantでプロビジョニングを実行する。

$ bundle exec berks vendor ./cookbooks
$ vagrant reload
$ vagrant provision

bundle exec berks install --path ./cookbooksはdeprecated

Railsの動作確認

ホスト側でRailsをインストールする。

$ vagrant ssh
# rbenv shell 2.3.1
$ gem install rails -V
$ rails new sample --skip-bundle
$ cd sample/
$ mkdir -p shared/{pids,log}

Gemfileを開いてgem 'unicorn'の一行を追加する。

vim Gemfile
source 'https://rubygems.org'


gem 'rails', '~> 5.0.0', '>= 5.0.0.1'
gem 'sqlite3'
gem 'puma', '~> 3.0'
gem 'sass-rails', '~> 5.0'
gem 'uglifier', '>= 1.3.0'
gem 'coffee-rails', '~> 4.2'
gem 'jquery-rails'
gem 'turbolinks', '~> 5'
gem 'jbuilder', '~> 2.5'

gem 'unicorn'

group :development, :test do
  gem 'byebug', platform: :mri
end

group :development do
  gem 'web-console'
  gem 'listen', '~> 3.0.5'
  gem 'spring'
  gem 'spring-watcher-listen', '~> 2.0.0'
end

gem 'tzinfo-data', platforms: [:mingw, :mswin, :x64_mingw, :jruby]

以下のコマンドで上記の内容をインストール。

bundle install

unicornの設定ファイルを以下のように編集する。

vim config/unicorn.rb
listen "/tmp/unicorn.sock"
worker_processes 2

pid "/home/vagrant/sample/shared/pids/unicorn.pid"
stderr_path "/home/vagrant/sample/shared/log/unicorn.log"
stdout_path "/home/vagrant/sample/shared/log/unicorn.log"
cd sample/ 
bundle exec unicorn -c config/unicorn.rb [-D]

UnicornではなくPumaで動かす場合は以下のコマンド

bundle exec rails s (-e production) -b '0.0.0.0'

 http://192.168.33.10:3000 にアクセスすると以下のような画面が現れる。

スクリーンショット 2016-11-17 0.59.18.png

Unicornのプロセスの終了(-Dでデーモンで立ち上げた場合)

kill -QUIT `cat /home/vagrant/test_unicorn/shared/pids/unicorn.pid`

OpsWorksでデプロイ

Berkshelfによるパッケージ化

以下のコマンドを実行して、S3にアップロードする。

$ bundle exec berks package cookbooks.tar.gz
$ aws s3 cp cookbooks.tar.gz s3://sample-bucket/

OpsWorks(OpsWorks Stacks)の操作

  1. マネジメントコンソールからOpsWorksを選択
  2. [Go to OpsWorks Stacks]を選択。

Stackの設定

  1. [Stacks]から[Add stack]を選択。
  2. [Chef 12 stack]タブを選択し、以下のように入力する。

Stack name: sample-stack
Region: Asia Pacific (Tokyo)
VPC: vpc-xxxxxxxx (default)
Default subnet: xxx.xxx.xxx.xxx/xx – ap-northeast-1a
Default operating system: Linux, Amazon Linux 2016.09
Default SSH key: Do not use a default SSH key
Chef version: 12
Use custom Chef cookbooks: Yes
Repository type: S3 Archive
Repository URL: http://.s3-website-ap-northeast-1.amazonaws.com/cookbooks.tar.gz
Access key ID: AKIAXXXXXXXXXXXXXXXXXXXX
Secret access key: xxxxxxxxxxxxxxxxxxxxxxxxx
Stack color: blue (default)

Advanced optionsは以下のような項目がある。
Default root device type: EBS backed
IAM role:
Default IAM instance profile:
API endpoint region: ap-northeast-1a (REGIONAL)
Hostname theme: Layer Dependent
OpsWorks Agent version: 4021(Dec 16th 2016)
Custom JSON: (空欄)
Use OpsWorks security groups: Yes

Layerの設定

  1. [Layers]の設定
  2. [Add layer]を選択し、以下のように入力する。
    Name: sample-layer
    Short name: sample

[Add layer]を選択。

  1. 作成したLayerを選択し、[Recipes]を選択。
  2. Setupに以下の5つを追加する。
  • nginx::default
  • nodejs::default
  • ruby-env::default
  • yum::default
  • yum-epel::default

[Save]を選択。

※これを忘れた場合、Chefによるプロビジョニングが行われずに、後述のインスタンスが起動してしまう。

Instanceの作成

1.[Instances]を選択。
2.[+ Instance]を選択し、以下のように入力する。

Hostname: sample
Size: t2.micro
Subnet: XXX.XXX.XXX.XXX/XX – ap-northeast-1a

[Add Instance]を選択。

3.作成したインスタンスのActionsから[start]を選択。以降プロビジョニングが始まる。もし、起動に失敗した場合は、Hostnameのホスト名を選択した時に遷移するページの最下部にあるLogsから確認出来るLogを確認する。

補足

Berkshelfの実行

bundle exec berks install --path ./cookbooks

これはdeprecatedなので以下を実行

bundle exec berks vendor --path ./cookbooks

注意点

ホスト側でgemコマンドが見つからない

rbenv shell 2.3.1

を実行することでgemを認識するようになる。
http://qiita.com/kasumani/items/042bf799d6794bd2e4f2

Ansible

導入

インストール

brew install ansible

試しにホストに疎通確認。

[sample]
<IP address> ansible_user=ec2-user ansible_ssh_private_key_file=~/.ssh/id_rsa
$ ansible -i hosts all -m ping
<IP address> | SUCCESS => {
    "changed": false, 
    "ping": "pong"
}

Ansible Playbookによるプロビジョニング

ディレクトリ構成

.
├── ansible.cfg
├── group_vars
│   └── sample
├── inventory
│   └── hosts
├── sample.yml
└── roles
    ├── nginx
    │   ├── defaults
    │   │   └── main.yml
    │   ├── handlers
    │   │   └── main.yml
    │   ├── tasks
    │   │   └── main.yml
    │   └── templates
    │       ├── 404.html.j2
    │       ├── 50x.html.j2
    │       ├── index.html.j2
    │       └── nginx.conf.j2
    ├── rails
    │   ├── defaults
    │   │   └── main.yml
    │   └── tasks
    │       └── main.yml
    ├── rbenv
    │   └── tasks
    │       └── main.yml
    └── yum
        └── tasks
            └── main.yml

ファイル内容

sample.yml
- hosts: sample
  become: yes 
  roles:
    - yum 
    - rbenv
    - rails
    - nginx
ansible.cfg
[defaults]
remote_user=ec2-user
private_key_file=~/.ssh/id_rsa
inventory=./inventory/hosts
executable = /bin/bash -l
  • inventory
[defualts]
<IP address>
  • group_vars
rbenv_user: ec2-user
rbenv_ruby_version: 2.3.1
  • roles

    • yum
yum
└── tasks
    └── main.yml
main.yml
---
- name: Install package for bundle install
  yum: name={{ item }} state=latest
  with_items:
    - sqlite-devel
    - gcc-c++
- name: Update all packages
  yum: name=* state=latest

 gcc-c++はtherubyracerのインストールに必要

  • rbenv
rbenv
└── tasks
    └── main.yml
---
- name: Install dependencies for rbenv
  yum: name={{ item }} state=latest
  with_items:
    - git

- name: Install rbenv
  become: yes
  become_user: "{{ rbenv_user }}"
  git: repo=https://github.com/sstephenson/rbenv.git dest=~/.rbenv

- name: Add ~.rbenv/bin to PATH
  become: yes
  become_user: "{{ rbenv_user }}"
  lineinfile: >
    dest="~/.bash_profile"
    line="export PATH=$HOME/.rbenv/bin:$PATH"
- name: Eval rbenv init in ~/.bash_profile
  become: yes
  become_user: "{{ rbenv_user }}"
  lineinfile: >
    dest="~/.bash_profile"
    line='eval "$(rbenv init -)"'

- name: Install dependencies for ruby-build (see. https://github.com/sstephenson/ruby-build/wiki)
  yum: name={{ item }} state=latest
  with_items:
    - gcc
    - openssl-devel
    - libyaml-devel
    - libffi-devel
    - readline-devel
    - zlib-devel
    - gdbm-devel
    - ncurses-devel

- name: Install ruby-build as rbenv plugin
  become: yes
  become_user: "{{ rbenv_user }}"
  git: repo=https://github.com/sstephenson/ruby-build.git dest=~/.rbenv/plugins/ruby-build

- name: Check if version is installed ruby
  become_method: yes
  become_user: "{{ rbenv_user }}"
  shell: "rbenv versions | grep {{ rbenv_ruby_version }}"
  register: rbenv_check_install
  changed_when: False
  ignore_errors: yes

- name: Install ruby
  become_method: yes
  become_user: "{{ rbenv_user }}"
  shell: "rbenv install {{ rbenv_ruby_version }}"
  when: rbenv_check_install|failed

- name: Check if version is the default ruby version
  become_method: yes
  become_user: "{{ rbenv_user }}"
  shell: "rbenv version | grep {{ rbenv_ruby_version }}"
  register: rbenv_check_default
  changed_when: False
  ignore_errors: yes

- name: Set default ruby version
  become_method: yes
  become_user: "{{ rbenv_user }}"
  shell: "rbenv global {{ rbenv_ruby_version }}"
  when: rbenv_check_default|failed

※注意点で、rbenvのコマンドのパスを通すところで、.bash_profileに設定を追記しているが、sourceコマンドでは反映されない。なので、パスを適用させるために、シェルはログインシェルとして実行することで解決できる。具体的には、ansible.cfg中でexecutable = /bin/bash -lを宣言すると良い。

  • rails
rails
├── defaults
│   └── main.yml
└── tasks
    └── main.yml
  • defaults
main.yml
---
railsenv_deploy_dir: "/var/www/sample"
railsenv_deploy_user: ec2-user
railsenv_deploy_group: ec2-user
  • tasks
main.yml
---
- name: Install mysql-devel
  yum: name={{ item }} state=latest
  with_items:
    - mysql-devel
    - gcc-c++

- name: Install dependencies for nokogiri
  yum: name={{ item }} state=latest
  with_items:
    - patch

- name: Install bundler
  become_user: "{{ rbenv_user }}"
  gem: name={{ item }} user_install=False
  with_items:
    - bundler

- name: Create deploy directory
  file: path={{ railsenv_deploy_dir }} state=directory owner={{ railsenv_deploy_user }} group={{ railsenv_deploy_group }} mode=0755
  • nginx
nginx
├── defaults
│   └── main.yml
├── handlers
│   └── main.yml
├── tasks
│   └── main.yml
└── templates
    ├── index.html.j2
    └── nginx.conf.j2
  • tasks
main.yml
---
- name: Install nginx
  yum: name=nginx state=latest

- name: Set nginx service to start on boot
  service: name=nginx enabled=true

- name: Put nginx.conf
  template: src=nginx.conf.j2 dest=/etc/nginx/nginx.conf backup=true mode=0644
  notify: restart nginx

- name: Put share index.html
  template: src=index.html.j2 dest=/usr/share/nginx/html/index.html mode=644
  • handlers
main.yml
---
- name: restart nginx
  service: name=nginx state=restarted
  • defualts
main.yml
---
nginx_woker_processes: "auto"
nginx_server_tokens: "off"
nginx_includes: []
  • templates
index.html.j2
<html>
    <body>
        <h1>Hello, world!</h1>
    </body>
</html>
nginx.conf.j2
user  nginx;
worker_processes  {{ nginx_woker_processes }};

error_log  /var/log/nginx/error.log;

pid        /var/run/nginx.pid;


events {
    worker_connections  1024;
}


http {
    include       /etc/nginx/mime.types;
    default_type  application/octet-stream;

    log_format  main  '$remote_addr - $remote_user [$time_local] "$request" '
                      '$status $body_bytes_sent "$http_referer" '
                      '"$http_user_agent" "$http_x_forwarded_for"';

    error_log  /var/www/sample/log/nginx.error.log; 
    access_log /var/www/sample/log/nginx.access.log; 

    server_tokens {{ nginx_server_tokens }};

    sendfile        on;

    keepalive_timeout  65;

    include /etc/nginx/conf.d/*.conf;
{% for include in nginx_includes %}
    include {{ include }};
{% endfor %}

    index   index.html index.htm;

    client_max_body_size 2G;
    upstream app_server {
        server unix:/var/www/sample/tmp/sockets/.unicorn.sock fail_timeout=0;
    }

   server {
        listen 80;
        server_name <IP address>;

        keepalive_timeout 5;
        root /var/www/sample/public;
        try_files $uri/index.html $uri.html $uri @app;
        location @app {
            proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
            proxy_set_header Host $http_host;
            proxy_redirect off;
            proxy_pass http://app_server;
        }
    }
}

実行

ansible-playbook sample.yml

ansible.cfg中でremote_user, private_key_file, inventoryの設定を追加しない場合は以下のようにコマンドを打つ必要がある。

ansible-playbook -i "<IP address>," --user=ec2-user --private-key=~/.ssh/id_rsa sample.yml

注意点

  • rbenvの設定ファイルを.bash_profileの内容がsourceでは反映されないのでshellモジュールを使う時は必ずログインシェルとして実行する
[defaults]
executable = /bin/bash -l
- name: Sample shell execution
  become_method: yes
  become_user: ec2-user
  shell: "~~~"

http://www.bunkei-programmer.net/entry/2015/05/16/162020

  • therubyracerの依存パッケージでgcc-c++をyumで入れる。

Docker [Docker Compose]

FROM ruby:2.3.1

ENV APP_ROOT /app

RUN apt-get update -qq && 
    apt-get install -y build-essential 
                       libmysqld-dev 
                       libmysqlclient-dev 
                       mysql-client 
                       --no-install-recommends && 
    rm -Rf /var/lib/opt/lists/*

RUN mkdir $APP_ROOT
WORKDIR $APP_ROOT

ADD . /app
RUN bundle install
docker-compose.yml
version: '2' 
services:
  app:
    build: .
    command: bundle exec rails s -b '0.0.0.0'
    volumes:
      - .:/app
    ports:
      - "3000:3000"
    links:
      - db
  db: 
    image: mysql:5.6.30
    ports:
      - "3306:3306"
    environment:
      MYSQL_ROOT_PASSWORD: root

ただし、Gemfile中でtherubyracerを使用しない場合は、Dockerfile中でapt-get installnodejsもインストールする。

ビルド & 実行

以下のコマンドはターミナルのウィンドウを新たに開くたびに実行する。

docker-machine start default
eval $(docker-machine env defualt)

ビルド

docker-compose build

実行

docker-compose up

IPアドレスを以下のコマンドで調べる。

docker-machine ip

192.168.99.100:3000のようにブラウザにアクセスする。

ECSでデプロイ

ECSでデプロイする場合は別投稿の下記のURLを参考にして下さい。
http://qiita.com/hayashier/items/b34f82c42053f85e5b09

マニュアルで環境構築

Railsの環境準備

sudo yum install -y git make gcc-c++ patch openssl-devel libyaml-devel libffi-devel libicu-devel libxml2 libxslt libxml2-devel libxslt-devel zlib-devel readline-devel mysql mysql-server mysql-devel ImageMagick ImageMagick-devel epel-release
sudo yum install -y nodejs npm --enablerepo=epel
git clone https://github.com/sstephenson/rbenv.git ~/.rbenv 
echo 'export PATH="$HOME/.rbenv/bin:$PATH"' >> ~/.bash_profile 
echo 'eval "$(rbenv init -)"' >> ~/.bash_profile
source .bash_profile
git clone https://github.com/sstephenson/ruby-build.git ~/.rbenv/plugins/ruby-build
rbenv install 2.3.1
rbenv global 2.3.1
ruby -v

Webサーバのインストール

sudo yum install gem
gem install bundle
bundle -v
rake secret
sudo yum install nginx
sudo service nginx start

以下、Capistrano等のデプロイツールを用いてデプロイする場合は必ずしも必要ではありません。

gitの準備

vim ~/.netrc
cd ~/.ssh
ssh-keygen -t rsa -C "<メールアドレス>"
ssh-add ~/.ssh/id_rsa
cat id_rsa_admin.pub 
ssh -T git@github.com

GitHubに公開鍵の登録をする。

  • .netrc
machine github.com
login <GitHubユーザ名>
password xxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxxx

Webサーバの環境・設定

cd /var/www/
sudo git clone https://github.com/<GitHubユーザ名>/<レポジトリ名>.git
sudo chown -R ec2-user:ec2-user <レポジトリ名>/
cd <レポジトリ名>/
bundle install --path ./vendor/bundle/ 
sudo vim /etc/nginx/conf.d/admin.conf 
sudo service nginx restart
bundle exec rake secret
cat config/secrets.yml 
vim .env
source .env
echo $SECRET_KEY_BASE
sudo service nginx restart
rails s -e production
  • .env
export DATABASE_PASSWORD_PRODUCT=xxxxxxxxxxxxxxx

config/database.yml中のデータベースへのパスワードを以下のように環境変数として定義しておき、.env中でインポートする。

<%= ENV[‘DATABASE_PASSWORD_PRODUCT’] %>

  • sample.conf
error_log  /var/www/sample/log/nginx.error.log; 
access_log /var/www/sample/log/nginx.access.log;

client_max_body_size 2G;
upstream app_server {
  server unix:/var/www/sample/tmp/sockets/.unicorn.sock fail_timeout=0; 
}
server {
  listen 80;
  server_name <IPアドレス>;
  # nginx so increasing this is generally safe...
  keepalive_timeout 5;
  # path for static files
  root /var/www/sample/public; 
  # page cache loading
  try_files $uri/index.html $uri.html $uri @app;
  location @app {
    # HTTP headers
    proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
    proxy_set_header Host $http_host;
    proxy_redirect off;
    proxy_pass http://app_server;
  }     
  # Rails error pages
  error_page 500 502 503 504 /500.html;
  location = /500.html {
    root /var/www/sample/public; 
  }
}

参考

Chef

Ansible

Docker

https://docs.docker.com/compose/rails/

続きを読む

[翻訳]チュートリアル:CloudWatchアラームによるコンテナインスタンスのスケーリング

原文: Tutorial: Scaling Container Instances with CloudWatch Alarms

次の手順は、CloudWatchアラームを使用してスケールアップ(および縮小)できるAmazon ECSクラスタのAuto Scaling グループを作成するのに役立ちます。

クラスタで使用するAmazon EC2インスタンスの種類や、クラスタ内にあるコンテナインスタンスの数によっては、タスクの実行時に使用できるリソースの量が限られています。 ECSは、クラスタ内で使用可能なリソースを監視し、スケジューラと連携してタスクを配置します。 メモリなどのこれらのリソースでクラスタが不足すると、コンテナインスタンスを追加したり、サービス内の目的のタスク数を減らしたり、実行中のタスクの一部を停止したりするまで、最終的には他のタスクを起動できなくなります。クラスタを使用して、制約されたリソースを解放します。

このチュートリアルでは、クラスタの MemoryReservation メトリクスを使用してCloudWatchアラームを作成します。 クラスタのメモリ予約が75%を超えると(クラスタ内のメモリの25%しか新しいタスクを予約することができないことを意味します)、アラームはAuto Scaling グループを起動して別のインスタンスを追加し、タスクとサービス。

前提条件

このチュートリアルでは、クラスタとサービスのCloudWatchメトリクスを有効にしていることを前提としています。 メトリクスは、クラスタとサービスがCloudWatchにメトリクスを送信し、まだ存在しないメトリクスのCloudWatchアラームを作成することができるまで使用できません。

Amazon ECSコンテナインスタンスには、CloudWatchメトリクスを有効にするために、コンテナエージェントのバージョン1.4.0以上が必要です。 エージェントのバージョンの確認と最新バージョンへの更新については、「Amazon ECSコンテナエージェントの更新」を参照してください。

Amazon ECSコンテナインスタンスには、コンテナインスタンスを起動するIAMロールの ecs:StartTelemetrySession パーミッションも必要です。 Amazon ECSのCloudWatchメトリクスが利用可能になる前にAmazon ECSコンテナインスタンスのロールを作成した場合は、このアクセス許可を追加する必要があります。 Amazon ECSコンテナインスタンスのロールを確認し、コンテナインスタンスの管理対象IAMポリシーを添付する方法については、「IAMコンソールで ecsInstanceRole を確認するには」を参照してください。

ステップ1:メトリクスのCloudWatchアラームを作成する

クラスタとサービスのCloudWatchメトリクスを有効にし、クラスタのメトリクスがCloudWatchコンソールに表示されたら、メトリクスにアラームを設定できます。 詳細については、「Amazon CloudWatchユーザーガイド」の 「Amazon CloudWatchアラームの作成」を参照してください 。

このチュートリアルでは、クラスタ MemoryReservation メトリクスにアラームを作成して、クラスタのメモリー予約が75%を超えたときに警告します。

メトリクスのCloudWatchアラームを作成するには

  1. https://console.aws.amazon.com/cloudwatch/ でCloudWatchコンソールを開きます。
  2. 左側のナビゲーションで、 アラーム を選択します。
  3. アラームの作成 を選択します。
  4. カテゴリ別の CloudWatch メトリクス セクションで、 ECSメトリクス > ClusterName を選択します。
  5. アラームの作成 ページで、デフォルト・クラスタの MemoryReservation メトリクスを選択し、 次へ を選択します。
  6. アラームのしきい値 セクションで、 アラームの名前と説明を入力します。

    • 名前: memory-above-75-pct
    • 説明: Cluster memory reservation above 75%
  7. 次の時 MemoryReservation が75%超過を1回連続した場合に設定します。
    Alerm Threshould
  8. (オプション)アラームがトリガーされたときに送信する通知を設定します。 今すぐ通知を設定したくない場合は、通知を削除することもできます。
  9. アラームの作成 を選択します。 このアラームを使用すると、メモリ予約が75%を超えたときにAuto Scaling グループを起動してコンテナインスタンスを追加できます。
  10. (オプション)メモリ予約が25%未満になったときにトリガする別のアラームを作成することもできます。これを使用して、Auto Scaling グループからコンテナインスタンスを削除できます。

ステップ2:Auto Scaling グループの起動設定を作成する

CloudWatchメトリクスを有効にして、これらのメトリクスの1つに基づいてアラームを作成したので、クラスタの起動構成とAuto Scaling グループを作成できます。 詳細およびその他の設定オプションについては、「Auto Scalingユーザーガイド」を参照してください 。

Auto Scaling グループの起動設定を作成するには

  1. https://console.aws.amazon.com/ec2/ からAmazon EC2コンソールを開きます。
  2. 左側のナビゲーションで、 Auto Scaling グループ を選択します。
  3. Auto Scaling へようこそ ページで、 Auto Scaling グループの作成 を選択します。
  4. Auto Scaling グループの作成 ページで、 起動設定の作成 を選択します 。
  5. 起動設定の作成 ウィザードの AMI の選択 ステップで、 コミュニティ AMI を選択します。
  6. Auto Scaling GroupにECS用に最適化されたAMIを選択します。

    Amazon ECS用に最適化されたAMIを使用するには、 amazon-ecs-optimizedコミュニティ AMI の検索 フィールドに入力し、 Enter キーを押します。 amzn-ami-2016.09.d-amazon-ecs-optimized AMI の横にある Select を選択します。 参考までに以下に現在の地域別のAmazon ECS用に最適化されたAMI IDの一覧を示します。

    Region AMI Name AMI ID EC2 console link
    us-east-1 amzn-ami-2016.09.d-amazon-ecs-optimized ami-a58760b3 Launch instance
    us-east-2 amzn-ami-2016.09.d-amazon-ecs-optimized ami-a6e4bec3 Launch instance
    us-west-1 amzn-ami-2016.09.d-amazon-ecs-optimized ami-74cb9b14 Launch instance
    us-west-2 amzn-ami-2016.09.d-amazon-ecs-optimized ami-5b6dde3b Launch instance
    eu-west-1 amzn-ami-2016.09.d-amazon-ecs-optimized ami-e3fbd290 Launch instance
    eu-west-2 amzn-ami-2016.09.d-amazon-ecs-optimized ami-77f6fc13 Launch instance
    eu-central-1 amzn-ami-2016.09.d-amazon-ecs-optimized ami-38dc1157 Launch instance
    ap-northeast-1 amzn-ami-2016.09.d-amazon-ecs-optimized ami-30bdce57 Launch instance
    ap-southeast-1 amzn-ami-2016.09.d-amazon-ecs-optimized ami-9f75ddfc Launch instance
    ap-southeast-2 amzn-ami-2016.09.d-amazon-ecs-optimized ami-cf393cac Launch instance
    ca-central-1 amzn-ami-2016.09.d-amazon-ecs-optimized ami-1b01b37f Launch instance
  7. 起動設定の作成 ウィザードの インスタンスタイプの選択 ステップで、 Auto Scaling グループのインスタンスタイプを選択し、 次の手順: 詳細設定 を選択します。
  8. 起動設定の作成 ウィザードの 詳細設定 ステップで、 以下の情報を入力します。 その他のフィールドはオプションです。詳細については、 Auto Scalingユーザーガイド の「Creating Launch Configurations」を参照してください。

    • 名前: 起動設定の名前を入力します。
    • IAM ロール: ecsInstanceRole を選択します。このロールを設定していない場合は、「Amazon ECS Container Instance IAM Role」を参照してください。
    • IP アドレスタイプ: コンテナインスタンスに必要なIPアドレスタイプオプションを選択します。 外部トラフィックがコンテナに到達できるようにするには、 パブリック IP アドレスを各インスタンスに割り当てます。 を選択します。
  9. (オプション)EC2ユーザーデータを使用してコンテナインスタンスに渡す構成情報がある場合は、 高度な詳細 を選択し、 ユーザーデータ フィールドに入力します。 詳細については、「Amazon ECS Container Agent Configuration」を参照してください。
  10. 次の手順: ストレージの追加 を選択します。
  11. 起動設定の作成 ウィザードの ストレージの追加 ステップで、インスタンスに必要なストレージ構成の変更を行い、 次の手順: セキュリティグループの設定 を選択します。
  12. 起動設定の作成 ウィザードの セキュリティグループの設定 ステップで、コンテナのニーズを満たす既存のセキュリティグループを選択するか、新しいセキュリティグループを作成して 確認 を選択します。
  13. 起動設定を確認し、 起動設定の作成 を選択します。
  14. SSHを使用してインスタンスに接続するために使用する秘密鍵を選択し、 起動設定の作成 を選択して完了し、新しい起動設定でAuto Scaling グループを作成します。

ステップ3:クラスタのAuto Scaling グループを作成する

起動設定が完了したら、次の手順に進み、起動設定を使用するAuto Scaling グループを作成します。

Auto Scaling グループを作成するには

  1. Auto Scaling グループの作成 ウィザードの Auto Scaling グループの詳細設定 ステップで、以下の情報を入力し、 次の手順: スケーリングポリシーの設定 を選択します 。

    • グループ名: Auto Scaling グループの名前を入力します。
    • グループサイズ: Auto Scaling グループを開始するコンテナインスタンスの数を指定します。
    • ネットワーク: コンテナインスタンスを起動するVPCを選択します。
    • サブネット: コンテナインスタンスを起動するサブネットを選択します。可用性の高いクラスタでは、リージョン内のすべてのサブネットを有効にすることをお勧めします。
  2. Auto Scaling グループの作成 ウィザードの スケーリングポリシーの設定 ステップで、 スケーリングポリシーを使用して、このグループのキャパシティを調整する を選択します。
  3. Auto Scaling グループのコンテナインスタンスの最小数と最大数を入力します。
  4. グループサイズの増加 セクションで、以下の情報を入力します。

    • 次の場合にポリシーを実行: 以前に設定した memory-above-75-pct CloudWatchアラームを選択します。
    • アクションを実行: アラームがトリガされたときにクラスタに追加するインスタンスの数を入力します。
  5. グループサイズの縮小をトリガするようにアラームを設定した場合は、 グループサイズの減少 セクションでそのアラームを設定し、そのアラームがトリガされた場合に削除するインスタンスの数を指定します。 それ以外の場合は、セクションの右上隅にある X をクリックして、 グループサイズの減少 セクションを折り畳んでください。
    注意
    コンテナインスタンスを削除するようにAuto Scaling グループを設定した場合、削除されたコンテナインスタンスで実行中のタスクは強制終了されます。 タスクがサービスの一部として実行されている場合、必要なリソース(CPU、メモリ、ポート)が利用可能であれば、Amazon ECSは別のインスタンスのタスクを再起動します。 ただし、手動で開始されたタスクは自動的に再起動されません。
  6. 確認 を選択してAuto Scaling グループを確認し、 Auto Scaling グループの作成 を選択して終了します。

ステップ4:Auto Scaling グループの検証とテスト

Auto Scaling グループを作成したので、Amazon EC2コンソールの インスタンス ページでインスタンスを起動することができます。 これらのインスタンスは、起動後もAmazon ECSクラスタに登録する必要があります。

Auto Scaling グループが正しく設定されているかどうかをテストするには、かなりの量のメモリを消費してクラスタに起動するタスクをいくつか作成します。 クラスタが指定された期間数のCloudWatchアラームから75%のメモリ予約を超えると、EC2コンソールに新しいインスタンスが起動するはずです。

ステップ5:クリーンアップ

このチュートリアルを完了したら、Auto Scaling グループとAmazon EC2インスタンスをクラスタ内で使用するように選択することができます。 ただし、これらのリソースを積極的に使用していない場合は、アカウントで不要な料金が発生しないように、リソースをクリーニングすることを検討する必要があります。 Auto Scaling グループを削除して、その中のAmazon EC2インスタンスを終了することはできますが、起動設定はそのまま残り、選択した後で新しいAuto Scaling グループを作成することができます。

Auto Scaling グループを削除するには

  1. https://console.aws.amazon.com/ec2/ からAmazon EC2コンソールを開きます。
  2. 左側のナビゲーションで、 Auto Scaling グループ を選択します。
  3. このチュートリアルで作成したAuto Scaling グループを選択します。
  4. 操作 を選択し、 削除 を選択します。
  5. Auto Scaling グループを削除するには、 はい、削除します を選択します。

続きを読む

AWS ECSでDockerコンテナ管理入門(基本的な使い方、Blue/Green Deployment、AutoScalingなどいろいろ試してみた)

はじめに

Dockerを本番環境で利用するに当たり、私レベルではDockerのクラスタを管理することはなかなか難しい訳です。凄くめんどくさそうだし。
ということでAWS ECS(EC2 Container Service)ですよ。

記事書くまでも無いかなと思ったんですけど意外と手順がWEBにない(気がしました)。ということで、今回は社内でハンズオンでもやろうかと思って細かく書いてみました。

こんな感じのシナリオをやってみたいと思います。

  1. Dockerのイメージを用意する
  2. ECSの使い方の基本
  3. コンテナのリリース
  4. Blue/Green Deployment
  5. AutoScaling/ScaleIn

前準備:Dockerのイメージを用意する

FROM uzresk/docker-oracle-jdk
MAINTAINER uzresk

ADD demo-1.0.jar /root/demo-1.0.jar
CMD java -jar /root/demo-1.0.jar
  • Docker build
[root@centos7 build_demo_ver1.0]# docker build -t uzresk/demo:ver1.0 /vagrant/build_demo_ver1.0
Sending build context to Docker daemon 33.11 MB
Step 1 : FROM uzresk/docker-oracle-jdk
 ---> df2f575c2a0d
Step 2 : MAINTAINER uzresk
 ---> Using cache
 ---> 1995a4e99748
Step 3 : ADD demo-1.0.jar /root/demo-1.0.jar
 ---> 705df0209779
Removing intermediate container cd9ef33d8812
Step 4 : CMD java -jar /root/demo-1.0.jar
 ---> Running in b7bd939a8b5a
 ---> add0783a851f
Removing intermediate container b7bd939a8b5a
Successfully built add0783a851f
  • 起動します

    • アプリケーションは8080で起動しているのでポートフォワードしておきます。
[root@centos7 build_demo_ver1.0]# docker run -itd -p 80:8080 --name demo uzresk/demo:ver1.0
92bda2419bf7285d78f12be5877ae3242b5b13ac14409b3c47d38e2d74a06464
  • ブラウザでこんな画面がでれば成功です。

image

  • Dockerhubにコミットしてpushしておきます。
[root@centos7 build_demo_ver1.0]# docker commit -m "update ver1.0" demo uzresk/demo:ver1.0
[root@centos7 build_demo_ver1.0]# docker push uzresk/demo:ver1.0

ECSの使い方の基本

AWS ECSとはなんなのか?

  • 今回は利用手順について書こうと思うので割愛しますが、AWS Black Belt ECSを読むのがよろしいかと思います。

構成する順番を抑えよう

  • こんな感じの順番で構成していきます。大事なので押さえておきましょう。
  1. クラスタの作成

    • クラスタを動かすためのEC2インスタンスの設定を行います。具体的にはインスタンスタイプ、インスタンス数、VPC、サブネットの設定になります。
  2. タスク定義

    • クラスタ上で動かすコンテナの情報を登録します。コンテナイメージのURLやCPU、メモリのハード/ソフト制限、アプリケーションで利用する環境変数の定義などを行います。
  3. ロードバランサの作成

    • クラスタの上位に位置するロードバランサの設定を行います。スケールアウトやスケールインしてもロードバランサはサービスを見つけ出し配下に組み込むことができます。
  4. サービスの作成

    • クラスタとサービスを結びつけるのがサービスの役割です。タスクの最少数やAutoScalingの設定を行ったりできます。
    • 1つのクラスタに複数サービスを登録することももちろん可能です。

それではさっそくクラスタの作成からやってみましょう。

クラスタの作成

image

image

  • 正常に作成されると「クラスターの表示」ボタンが押せるようになります。

image

タスク定義

  • 次はタスクの定義です。タスクでは

image

  • タスク定義名を入力し、「コンテナの追加」をクリックします。

image

image

  • 作成を押せばタスク定義の作成が完了します。

ELBの作成

  • ELBは以下の設定で作っておきましょう

    • ELB名:app-demo-lb
    • 種類:アプリケーションロードバランサ
    • 2つのAZそれぞれのSubnetを指定
    • セキュリティグループで80/HTTPを通すように設定
  • ターゲットグループは以下のようにクラスタで設定したインスタンスIDをそれぞれ登録してください。

image

サービスの作成

  • クラスターのTOPからdemo-clusterを選択し、サービスタブで「作成」

image

  • タスク定義とクラスタ名は自動で埋まりますので、サービス名とタスクの数を設定します。
  • 今回はAZにそれぞれコンテナを作りたいので2としました。

image

  • 画面の下の方にあるELBの追加を選択します。

image

  • ELB名は作成したもの、リスナーポートは80、ターゲットグループ名は作成したものを選択します。

image

image

  • 「作成」を押して、サービスの画面をみるとPENDINGになっています。

image

  • 少し経つとRUNNINGになっている事が確認できると思います。

image

  • ELBのエンドポイント/app/をブラウザで叩くと画面が表示されるはずです。

image

コンテナを落としてみるとどうなるのか

  • タスクの一覧から、タスクを一つ消してみましょう。

image

  • 数十秒後に見てみると別のタスクIDのインスタンスが表示されているはずです。

image

  • コンテナが起動する数十秒間の間はアプリケーションロードバランサが生きているタスクの方にうまくルーティングしてくれるのかな?と思ったら「502BadGateway」というエラーが画面に返ってきました。
  • ここはALBのヘルスチェックの閾値を短くすることである程度は短くできそうです。
  • ここをさらに短くするには、コンテナ自体を軽くすることと、すぐに起動できるアプリケーションを利用するしかなさそうですね。

コンテナのリリース

  • 新しいコンテナをリリースするには、タスク定義に新しいリビジョンを登録し、サービスを更新することで実現可能です。さっそくやってみましょう。

image

  • コンテナのバージョンを2.0にして、新しいリビジョンを登録します。

image

  • 追加されたリビジョンを選択し、アクション→サービスの更新を押します。

image

  • タスク定義に新しいリビジョンが指定されていることを確認して、「サービスの更新」

image

  • サービスの「デプロイ」タブを覗くと、今はVer1.0が2つ動いていることが確認できます。

image

  • コンテナを一つ落としてみましょう

image

image

  • 実行中の数がそれぞれ1になり、タスクの一覧からもそれぞれが動いていることがわかりますね。
    image

image


Blue/Green Deployment

  • Blue/GreenDeploymentでは新しいリビジョンのアプリ用に、新しいインスタンスを構築して入れ替える必要があります。
  • この為のパラメータがサービスのデプロイメントオプションにある最大率(maximumPercent)です。2台の時にこの値を200%にしておくと、4台まで同時に動かしておくことができることを意味します。
  • 4台のインスタンス上で動かすにはECSのインスタンス台数を事前に追加しておくか、AutoScalingさせておく必要があります。もしECSインスタンスが2台の状態で4つのコンテナを動かそうとすると以下のようなメッセージがでてしまいます。(ポートかぶってるから上がらないよ。ってことですね)

  • さっそくやってみます

service demo-service was unable to place a task because no container instance met all of its requirements. The closest matching container-instance xxxxxxxxxxxxxxxxxxxx is already using a port required by your task. For more information, see the Troubleshooting section.

image

image

  • この状態でサービスの更新画面でタスク定義を新しいリビジョンに指定して「サービスの更新」を押してみます。
  • おお。4台分のコンテナが起動しましたね。

image

  • ちょっと経つと(3分ほど?)、古いタスクから削除されていきます・・・・

image

  • 最期は新しいタスク定義しか残らなくなりました。自動ですよ。自動。便利ですねー。

image


AutoScaling/ScaleIn

  • 次はオートスケールとスケールインを試してみます。
  • 通常のオートスケールではインスタンスだけでしたが、インスタンス上で動くコンテナもスケールする必要があります。
  • 今回は2つのインスタンスで2つのコンテナで動いていたものを、負荷をかけることにより4つのインスタンス上に4つのコンテナにスケールアウトさせて、スケールインさせたいと思います。

サービスのAutoScaling設定

  • タスクの最大数を4にして、スケーリングポリシーの追加を押します。

image

  • スケールアウトポリシーの設定を行います。
  • CPU使用率の1分間の平均が20%超えた場合2タスクスケールアウトする設定にしました。

image

  • スケールインポリシーの設定を行います。

image

  • ポリシーが追加できたら「保存」を押しましょう

image

  • ポリシーが追加されていることを確認して、「サービスの更新」を押します。

image

  • これでサービスの設定はおしまいです。

ClusterのAutoScaling/ScaleInの設定

  • ECSインスタンスのオートスケールのポリシーは、EC2インスタンスのAutoScalingGroupの設定で行います。
  • 最大数を4にします。

image

  • Scaleout/ScaleInのポリシーを設定します。
  • サービスの設定と同じく、クラスタのCPU使用率が20%以上だと2台スケールアウトするように設定しました。

image

うごかしてみる

  • ECSインスタンス上でCPU使用率を強引に(openssl speed -multi 1)あげてみたのですがうまく動きませんでした。
  • ありがちですけどabで負荷をかけてみます。
  • abをインストール
sudo yum install -y httpd24-tools
  • 負荷をかける
ab -n 100000 -c 100 http://localhost/app/loginForm
  • CloudWatch Alerm(CPUが20%以上)があがる

image

  • サービスの必要数が4に変更される

image

  • インスタンスがオートスケールする

image

  • タスクが起動する

image

  • 負荷を解除する

  • CloudWatch Alerm(CPUが20%より小さい)があがる

image

  • 必要数が2に変更される

image

  • コンテナとインスタンスが2ずつに変わる

  • ここまでやって思ったんですが、インスタンス→コンテナの順に起動されたんですからコンテナ→インスタンスの順に落としていった方がよさそうですね。それはスケーリングポリシーのクールダウン時間で調整ができそうです。

ECSインスタンスの起動を待つのか?

  • ECSのインスタンスの起動を行った後にコンテナが起動されるので結局時間が掛かってしまいます。負荷の時間が予測されるのであればECSインスタンスを事前に起動しておいた方がECSのスケールアウトが高速にできそうです。
  • Dockerのメリットの一つである起動の高速化のメリットを享受するにはこのスケジューリングがキーになりそうですね。

どのインスタンスがスケールインするのか?


さいごに

ここまでコンテナ管理のハードルが下がると、今後はアプリケーションをコンテナにして配布するのが普通になってくると思います。
そうなるときのためにDockerについてしっかりと理解し、良い設計を心がけたいものですね

続きを読む

AWSのEC2でDockerを試してみる

概要

Dockerについてちょっこす勉強したので、ついでにDockerをEC2で動かしてみる。
AWS ECSがあるので、EC2でやらなくてもいいのですが、コマンドを色々と試してみるために構築。

試してみたこと

インストールやら実行して見たことのメモ。
とりあえず、docker-composeを使って、WordPressを立ち上げてみようと思います。

AWS EC2の立ち上げ

  • コンソール上からインスタンスを立ち上げ

    • OSはAWSのLinuxを利用
    • sshで接続できるようなセキュリティ設定をしておく
  • 下記コマンドでインスタンスにログイン
$ ssh -i <<キーペア>> ec2-user@<<パブリックIPアドレス or パブリックDNS>>

Dockerのインストール

  • インストール&起動
$ sudo yum update
$ sudo yum install -y docker
$ sudo service docker start
Starting cgconfig service:                                 [  OK  ]
Starting docker:    .                                  [  OK  ]
  • dockerグループにec2-userを追加
$ sudo usermod -a -G docker ec2-user
$ cat /etc/group |grep docker
docker:x:497:ec2-user
  • 一度ログアウトして、再度ログインし、下記コマンドで追加されていることを確認
$ docker info
Containers: 0
 Running: 0
 Paused: 0
 Stopped: 0
Images: 0
・・・・・
Registry: https://index.docker.io/v1/

docker-composeのインストール

公式ドキュメントにある通り、curlでインストール

$ curl -L "https://github.com/docker/compose/releases/download/1.9.0/docker-compose-$(uname -s)-$(uname -m)" -o /usr/local/bin/docker-compose
$ sudo chmod +x /usr/local/bin/docker-compose
$ docker-compose --version
docker-compose version 1.9.0, build 2585387

WordPressを立ち上げる

  • Docker Composerを使って複数のコンテナを一元管理
  • 構成は下記
    • WordPressイメージを利用 (web-serverコンテナ)
    • MySQLイメージを利用 (db-serverコンテナ)
    • データ保存先は保存用コンテナを準備 (data-onlyコンテナ)
  • こちらはプログラマのためのDocker教科書の内容を実際にやって見たものになります

データ保存用コンテナの作成

  • イメージはBusyBoxを利用
  • Dockerfileを下記のように作成
# Dockerイメージの取得
FROM busybox

# 作成者情報
MAINTAINER 0.1 your-account@your-domain.com

# データの設定
VOLUME /var/lib/mysql
  • コンテナの生成
$ docker build -t data-only .
Sending build context to Docker daemon 2.048 kB
Step 1 : FROM busybox
latest: Pulling from library/busybox

fdab12439263: Pull complete 
Digest: sha256:f102731ae8898217038060081c205aa3a4ae3f910c2aaa7b3adeb6da9841d963
Status: Downloaded newer image for busybox:latest
 ---> 1efc1d465fd6
Step 2 : MAINTAINER 0.1 your-account@your-domain.com
 ---> Running in 0a251281984a
 ---> 55a5492c2587
Removing intermediate container 0a251281984a
Step 3 : VOLUME /var/lib/mysql
 ---> Running in 67ec86d59105
 ---> b5937066eefa
Removing intermediate container 67ec86d59105
Successfully built b5937066eefa

$ docker images
REPOSITORY          TAG                 IMAGE ID            CREATED              SIZE
data-only           latest              b5937066eefa        About a minute ago   1.095 MB
busybox             latest              1efc1d465fd6        2 weeks ago          1.095 MB
  • コンテナの起動
$ docker run -it --name data-only data-only
/ # ls
bin   dev   etc   home  proc  root  sys   tmp   usr   var
/ # exit

$ docker ps -a
CONTAINER ID        IMAGE               COMMAND             CREATED             STATUS                      PORTS               NAMES
3fb730b66d6e        data-only           "sh"                36 seconds ago      Exited (0) 26 seconds ago                       data-only

WebサーバとDBサーバのコンテナ作成

WordPress構築のため、下記2つのコンテナを生成します。

  • Webサーバ (web-serverコンテナ)

    • WordPressのFEサーバでユーザからのリクエストを受ける処理を担う
      ポートは80番
    • WordPressイメージを使うが、内部的にはApacheとPHPで動作している
    • 次のDBサーバとデータ連携する
  • DBサーバ (db-serverコンテナ)

①docker-composerの設定

docker-compose.ymlを下記のように作成

docker-compose.yml
# Webサーバの設定
web-server:
  # イメージの指定
  image: wordpress

  # ポート転送設定
  ports:
    - "80:80"

  # コンテナのリンク指定
  links:
    - "db-server:mysql"

# DBサーバの設定
db-server:
  # イメージの指定
  image: mysql

  # データ保存先の指定
  volumes_from:
    - data-only

  # 環境変数の指定
  environment:
    MYSQL_ROOT_PASSWORD: password

②コンテナの起動

  • 下記コマンドでコンテナ群(WebサーバとDBサーバ)をバックグラウンドで起動
$ docker-compose up -d
Pulling db-server (mysql:latest)...
latest: Pulling from library/mysql
75a822cd7888: Pull complete
b8d5846e536a: Pull complete
b75e9152a170: Pull complete
832e6b030496: Pull complete
fe4a6c835905: Pull complete
c3f247e29ab1: Pull complete
21be3e562071: Pull complete
c7399d6bf033: Pull complete
ccdaeae6c735: Pull complete
3835a628a92f: Pull complete
530d0fb19b13: Pull complete
Digest: sha256:de1570492c641112fdb94db9c788f6a400f71f25a920da95ec88c3848450ed57
Status: Downloaded newer image for mysql:latest
Pulling web-server (wordpress:latest)...
latest: Pulling from library/wordpress
75a822cd7888: Already exists
e4d8a4e038be: Pull complete
81d4d961577a: Pull complete
f0a3d7c702e3: Pull complete
a4b7d2c4c9cc: Pull complete
de3fbbff60a9: Pull complete
336c38203cc2: Pull complete
628c443fd26f: Pull complete
6b43451e2e60: Pull complete
a4dc6da381e6: Pull complete
771a9ee2bb6a: Pull complete
3862c25af8ee: Pull complete
a3bf90f1df74: Pull complete
4564f4870a3e: Pull complete
ec9c03f98075: Pull complete
5f4dfa2bfbb4: Pull complete
69feb6fb40db: Pull complete
5f129a65fac7: Pull complete
Digest: sha256:0bb659eafa22cdb9f14bc05d17be97132842eb122eb8ff346ecafe7553f48f22
Status: Downloaded newer image for wordpress:latest
Creating docker_db-server_1
Creating docker_web-server_1

$ docker-compose ps
       Name                      Command               State         Ports        
---------------------------------------------------------------------------------
docker_db-server_1    docker-entrypoint.sh mysqld      Up      3306/tcp           
docker_web-server_1   docker-entrypoint.sh apach ...   Up      0.0.0.0:80->80/tcp
  • ここまででWordPressは起動しているので、EC2のURLにアクセスしてみて、画像のような画面が表示されればOK
    スクリーンショット 2017-01-06 15.58.01.png

③データ専用コンテナにマウントされているかの確認

$ docker start -ia data-only
/ # ls /var/lib/mysql
auto.cnf            ib_logfile0         ibdata1             mysql               sys
ib_buffer_pool      ib_logfile1         ibtmp1              performance_schema  wordpress
/ # exit

その他

  • コンテナの稼働状況確認
$ docker-compose ps
       Name                      Command               State         Ports        
---------------------------------------------------------------------------------
docker_db-server_1    docker-entrypoint.sh mysqld      Up      3306/tcp           
docker_web-server_1   docker-entrypoint.sh apach ...   Up      0.0.0.0:80->80/tcp
  • コンテナでのコマンド実行例
$ docker-compose run web-server /bin/bash
root@968b067b5b2d:/var/www/html# pwd
/var/www/html
  • コンテナ一括停止とリスタートコマンド例
$ docker-compose stop
$ docker-compose restart
  • コンテナ一括削除
$ docker-compose rm
  • テータ専用コンテナのバックアップとリストア方法
■バックアップ
$ docker export data-only > backup.tar

■リストア
$ tar xvf backup.tar

感想

今回はAWS EC2でdockerをインストールして、WordPressを立ち上げるまでをやって見ました。
おそらく、WordPress立ち上げはコマンド実行でもそんなに時間はかからないと思いますが、
dockerを使えばそれ以上に簡単にアプリケーションの立ち上げが簡単にできることを実感しました。
これにDocker MachineやDocker Swarmを使ってマルチホスト管理やクラスタ管理もできると考えると、
dockerは本当に便利ですね。そしてそれをサポートしているAWS ECSもすごいですねw

次は、ECSを使って何かをやって見たいと思います!!

参考

続きを読む

JenkinsとECSとSpot Fleetを使ってコンテナ上でJenkins Jobを実行する

背景

クラウドサービスではインスタンスが時間課金のため、JenkinsなどのCIサーバを起動すると利用しない時間は無駄なコストが発生してしまいます。
コンバートなどの高負荷ジョブを実行している場合はインスタンスタイプも大きなものを用意する必要があるため、AWS Batchを利用したくなります。
AWS Batch – AWSでバッチ処理ジョブを実行する
ですが、AWS Batchはプレビューのため、申請しないと使うことができません。
そんな時、以下の二つの記事
Jenkinsのジョブの実行環境にAmazon EC2 Container Service ( ECS ) を活用
Spot FleetでAmazon ECSクラスタを強力に
を見つけたので、JenkinsとECSとSpot Fleetをうまく組み合わせられないかということで試してみました。

本記事で利用しているCFnテンプレートはGitHubで公開しています。
https://github.com/shigewa/jenkins-using-ecs-and-spotfleet

aws cliのバージョン確認

aws --version
aws-cli/1.11.32 Python/2.7.10 Darwin/15.6.0 botocore/1.4.89

構成概要

Jenkins&ECS&SpotFleet

Jenkinsインスタンス構築前の準備

SpotFleetが利用するIAMロール作成

  • SpotFleet初回利用時にデフォルトで作成されるIAMロールが存在するか確認
aws iam get-role 
         --role-name "aws-ec2-spot-fleet-role"

存在する場合は JenkinsインスタンスとECS Clusterが利用するIAMロールの作成 に進んでください。

  • デフォルトIAMロールを作成
aws cloudformation --region ap-northeast-1 create-stack 
--stack-name SpotFleetRole 
--capabilities CAPABILITY_NAMED_IAM 
--template-body file://create-spotfleet-role.yaml
  • ロールのARNを確認
SPOT_FLEET_ROLE_ARN=$( 
  aws iam get-role 
         --role-name "aws-ec2-spot-fleet-role" 
         --query "Role.Arn" 
         --output text 
) 
  && echo "${SPOT_FLEET_ROLE_ARN}"

JenkinsインスタンスとECS Clusterが利用するIAMロール、インスタンスプロファイルの作成

  • IAMロール名の決定
JENKINS_ROLE_NAME='Jenkins_Instance_Role'
  • 同じ名前のロールがないことを確認
    既に存在する場合は別名にするもしくは IAMロールの確認作業 までスキップしてください。
aws iam get-role 
         --role-name ${JENKINS_ROLE_NAME}
  • IAMロールポリシーの決定
    管理ポリシーを確認します。
aws iam list-policies 
        --scope AWS 
        --max-items 1000 
        --query 'Policies[].PolicyName'

利用するポリシーを決めます。
以下は設定例です。

IAM_POLICY_NAME1='AmazonEC2FullAccess'
IAM_POLICY_NAME2='AmazonEC2ContainerServiceFullAccess'
  • IAMロールにアタッチするポリシーのARNを取得
IAM_POLICY_ARN1=$( 
  aws iam list-policies 
    --max-items 1000 
    --query "Policies[?PolicyName==`${IAM_POLICY_NAME1}`].Arn" 
    --output text 
) 
  && echo "${IAM_POLICY_ARN1}"
IAM_POLICY_ARN2=$( 
  aws iam list-policies 
    --max-items 1000 
    --query "Policies[?PolicyName==`${IAM_POLICY_NAME2}`].Arn" 
    --output text 
) 
  && echo "${IAM_POLICY_ARN2}"
aws cloudformation --region ap-northeast-1 create-stack 
--stack-name ${JENKINS_ROLE_NAME} 
--capabilities CAPABILITY_NAMED_IAM 
--template-body file://create-jenkins-instance-role.yaml 
--parameters 
ParameterKey=AttachJenkinsRoleARNs,ParameterValue="${IAM_POLICY_ARN1},${IAM_POLICY_ARN2} 
ParameterKey=RoleName,ParameterValue="{JENKINS_ROLE_NAME}"
  • 作成したIAMロールとインスタンスプロファイルのARNを確認
JENKINS_INSTANCE_PROFILE_ARN=$( 
  aws iam list-instance-profiles 
  --query "InstanceProfiles[?contains(Arn,`${JENKINS_ROLE_NAME}`)].Arn" 
  --output text 
  )
  && echo "${JENKINS_INSTANCE_PROFILE_ARN}"
JENKINS_ROLE_ARN=$( 
  aws iam list-instance-profiles 
  --query "InstanceProfiles[?contains(Arn,`${JENKINS_ROLE_NAME}`)].Roles[].Arn" 
  --output text 
  )
  && echo "${JENKINS_ROLE_ARN}"

結果が返却されない場合はCFnがスタック生成中の可能性がありますので、時間を置いて再実行してみてください。

Jenkinsインスタンスの構築

  • 以下の変数は実行環境に応じて修正してください。
REAGION="ap-northeast-1"
VPC_ID="hogehoge"
JENKINS_MASRER_SUBNET="fugafuga"
JENKINS_SLAVE_SUBNET='hoge,fuga'
IAM_FLEET_ROLE_ARN=$( 
  aws iam get-role 
         --role-name "aws-ec2-spot-fleet-role" 
         --query "Role.Arn" 
         --output text 
) 
IAM_INSTANCE_PROFILE_ARN=$( 
  aws iam list-instance-profiles 
  --query "InstanceProfiles[?contains(Arn,`${JENKINS_ROLE_NAME}`)].Arn" 
  --output text 
  )
KEY_NAME="Jenkins_Using_ECS_and_SpotFleet"
MASTER_JENKINS_INSTNCE_TYPE="t2.micro"
SLAVE_JENKINS_SPOT_INSTANCE_TYPE="c3.large"
# Amazon Linux
MASTER_JENKINS_AMIID="ami-0c11b26d"
# ECS Optimized Amazon linux
SLAVE_JENKINS_AMIID="ami-08f7956f"
SLAVE_CAPACITY=1
MAX_SPOT_PRICE=0.128
  • Master Slave Jenkinsが通信するSGを作成
aws cloudformation --region ${REAGION} create-stack 
--stack-name JenkinsSG 
--template-body file://create-jenkins-sg.yaml 
--parameters ParameterKey=VpcId,ParameterValue=${VPC_ID}
  • Master Jenkinsインスタンスを作成
    デフォルトでアタッチするSG等がある場合は create-jenkins-master-instance.yamlSecurityGroupIdsを修正してください
aws cloudformation --region ${REAGION} create-stack 
--stack-name JenkinsMasterStack 
--template-body file://create-jenkins-master-instance.yaml 
--parameters 
ParameterKey=VpcId,ParameterValue=${VPC_ID} 
ParameterKey=SubnetId,ParameterValue=${JENKINS_MASRER_SUBNET} 
ParameterKey=KeyName,ParameterValue=${KEY_NAME} 
ParameterKey=AmiId,ParameterValue=${MASTER_JENKINS_AMIID} 
ParameterKey=InstanceType,ParameterValue=${MASTER_JENKINS_INSTNCE_TYPE}
  • Slave Jenkins用のインスタンスとECS Clusterを作成
    デフォルトでアタッチするSG等がある場合は create-spotfleet-jenkins-slave.yamlSecurityGroupsを修正してください
aws cloudformation --region ${REAGION} create-stack 
--stack-name SpotFleetJenkinsSlave 
--template-body file://create-spotfleet-jenkins-slave.yaml 
--parameters 
ParameterKey=MaxSpotPrise,ParameterValue=${MAX_SPOT_PRICE} 
ParameterKey=TargetCapacity,ParameterValue=${SLAVE_CAPACITY} 
ParameterKey=InstanceType,ParameterValue=${SLAVE_JENKINS_SPOT_INSTANCE_TYPE} 
ParameterKey=SpotFleetAMI,ParameterValue=${SLAVE_JENKINS_AMIID} 
ParameterKey=KeyName,ParameterValue=${Diffchecker_Jenkins} 
ParameterKey=IamFleetRoleARN,ParameterValue=${IAM_FLEET_ROLE_ARN} 
ParameterKey=SubnetId,ParameterValue=${JENKINS_SLAVE_SUBNET}

Jenkinsの初期設定

構築されたJenkins masterインスタンスにアクセスし、画面表示どおり /var/lib/jenkins/secrets/initialAdminPassword に書かれたパスワードを入力します。
特にこだわりの設定がない場合は「Install suggested plugins」を選択肢、デフォルトのプラグインをインストールします。
adminユーザー情報を入力します。

Jenkins pluginの導入

以下の手順に従ってECS pluginを導入し、指定するECS Clusterは上記で作成したECS Clusterを指定してください。
https://wiki.jenkins-ci.org/display/JENKINS/Amazon+EC2+Container+Service+Plugin

環境の削除

aws cloudformation --region ${REAGION} delete-stack 
--stack-name SpotFleetJenkinsSlave

aws cloudformation --region ${REAGION} delete-stack 
--stack-name JenkinsMasterStack

aws cloudformation --region ${REAGION} delete-stack 
--stack-name JenkinsSG

aws cloudformation --region ${REAGION} delete-stack 
--stack-name SpotFleetRole

備考

SpotFleetを利用しているため、 MAX_SPOT_PRICE が低すぎる場合はスポットインスタンスが起動できません。

参考URL

Jenkins Amazon EC2 Container Service Plugin
AWSで継続的インテグレーション 〜 Jenkins編 | アドカレ2013 : CFn #9
Jenkinsのジョブの実行環境にAmazon EC2 Container Service ( ECS ) を活用
[JAWS-UG CLI] IAM:#22 IAMロールの作成 (ECSコンテナインスタンス)
Spot FleetでAmazon ECSクラスタを強力に

続きを読む