水曜日 8 22, 2012

Sun ZFS Appliance Monitor登場

システム運用管理にも、スマートフォンやタブレットの時代が到来!?

去る2012年8月1日に、Sun ZFS Storage Appliance(以下、ZFSSA)の管理を目的としたiOS向けのアプリ、『Sun ZFS Appliance Monitor』(以下、ZMA)がリリースされました。
iTunesに紹介がありますので、こちら参考にしてみてください。
http://itunes.apple.com/jp/app/sun-zfs-appliance-monitor/id546494906


ZMAは、どこでも手軽にZFSSAの状況を確認出来ることを目指して開発されました。
アプリ上に複数台のZFSSAを登録することが可能で、専用のBUIで表示可能な画面を、簡単にiPhone等で確認出来ます。
但しこのアプリは主に確認での用途を想定していて、このアプリを通してZFSSAの設定を変更することは出来ません。
揺れる通勤中でタッチパネルに意図せず触れてしまい、本番環境の構成が変わってしまった!なんてことは起こらないので、安心して利用出来ます。

尚、このアプリは無料です。
ここではZFSSAシミューレーターを使って、iPhoneへインストールしてアプリの画面を見ていきたいと思います。


【事前準備】

①アプリの入手

iPhone等でアプリを入手するには、App Storeで『zfs』の3文字で検索すれば一番上に出てくるはずです。
アプリのインストール方法はiOS共通でタッチするだけです。


②ZFSSAシミュレーターを準備

シミュレーターの準備に関しては、過去に実施しましたオラクル・ダイレクトセミナーのセミナー資料が、現在はOTNセミナー オンデマンド コンテンツとして掲載されております。
一部内容に古さが見られますが、セットアップの手順については基本同じですので参考にしてください。
http://www.oracle.com/technetwork/jp/ondemand/hardware/storage/ord-s7000-1-20101109-302076-ja.pdf


③シミュレーターセットアップ

ZMAでは確認がメインになりますので、ZFSSAのBUIを通して以下の項目をあらかじめ設定しておきます。
・Poolを作成
・Shareを作成
・いくつかの項目を選択してAnalyticsのワークシートをセーブ


【画面イメージ】

それでは、いくつかの画面を見ていきたいと思います。

アプリを初めて起動すると、以下の様な画面が表示されて、管理するZFSSAの登録を促されます。




左上の「Edit」をタッチし、新しく管理対象となるZFSSAの情報を入力します。
「Hostname」はアプリ上の管理用としての名前を設定します。
アプリ上の管理用途ですので、ZFSSA本体に設定をしたホスト名とは異なった名前にすることが出来ます。
その他、接続情報としてIPアドレスやユーザー名、パスワード等を入力し、「Save」をタッチします。




設定が完了し、ZFSSAへの接続が確立されると、システム全体のサマリーが表示されます。




無事に登録が完了したら、いよいよ各項目を見ていきます。
最初に「Status」の項目が表示されます。
これはBUIでログインした時と同じですね。




BUIの場合、「Status」ではグラフと共に画面が表示されますが、ZMAでは画面の大きさの都合もあり、グラフは「Dashboard Graphs」をタッチして画面を遷移させます。

グラフは次の様な画面です。
さすがに限られたスペースでは1画面に表示出来る項目は少なくなりますが、画面を下にスライドして見ることが出来ます。
画面スライドは、さすがのiPhone(iOS)と言った感じで、非常にスムーズでストレスは感じられません。




よく見ると、画面下部に各項目のタブがあります。
次に「Hardware」を見てみましょう。

「Hardware」タブをタッチすると、次の様な画面が表示されます。




Virtual Boxを使ったシミュレーターなので、いくつかの項目が本物のZFSSAとは異なるのですが、モデルやディスクの情報などが見られます。

ZMAが発表されてすぐに、一時的に社内検証機の7120を登録したことがあり、その際の画面コピーがこちらです。
こちらでは本体のイメージ画像が表示され、またCPUやメモリ、ディスクの情報などが正しく表示されます。




画面を進めると各コンポーネント毎の状態を見ることが出来ますので、リモートから簡単に問題が発生している部位を見ることが出来ます。




さて、ZFSSAを管理する際に非常に強力なツールが「Analytics」です。
ZMAでも、すでに登録がされている「Analytics」の画面を呼び出して表示することが可能です。
こちらがその画面です。




更新の頻度がBUIとは異なりますが、ここでも見え方は同じで、複数の項目を登録している場合には、画面スクロールで見るこ�����が出来ます。


以上、アプリでの画面イメージは伝わりましたでしょうか。
すでにご利用のZFSSAがあればそちらで、まずは試してみたいと言う方はシミュレーターで。
一度お試しください。

木曜日 5 31, 2012

ZFS Storage Appliance を ldap に連携させる

ZFS Storage Appliance を Openldap と連携してみます。
まず、ldap サーバーを用意します。今回は Solaris 11 の Openldap を前提に設定していきます。
下記の slapd.conf と、ldif ファイルにあるように user01 を作成します。
今回利用した slapd.conf

#
# See slapd.conf(5) for details on configuration options.
# This file should NOT be world readable.
#
include        /etc/openldap/schema/core.schema
include        /etc/openldap/schema/cosine.schema
include        /etc/openldap/schema/nis.schema

# Define global ACLs to disable default read access.

# Do not enable referrals until AFTER you have a working directory
# service AND an understanding of referrals.
#referral    ldap://root.openldap.org

pidfile        /var/openldap/run/slapd.pid
argsfile    /var/openldap/run/slapd.args

# Load dynamic backend modules:
 modulepath    /usr/lib/openldap
 moduleload    back_bdb.la
# moduleload    back_hdb.la
# moduleload    back_ldap.la

# Sample security restrictions
#    Require integrity protection (prevent hijacking)
#    Require 112-bit (3DES or better) encryption for updates
#    Require 63-bit encryption for simple bind
# security ssf=1 update_ssf=112 simple_bind=64

# Sample access control policy:
#    Root DSE: allow anyone to read it
#    Subschema (sub)entry DSE: allow anyone to read it
#    Other DSEs:
#        Allow self write access
#        Allow authenticated users read access
#        Allow anonymous users to authenticate
#    Directives needed to implement policy:
# access to dn.base="" by * read
# access to dn.base="cn=Subschema" by * read
# access to *
#    by self write
#    by users read
#    by anonymous auth
#
# if no access controls are present, the default policy
# allows anyone and everyone to read anything but restricts
# updates to rootdn.  (e.g., "access to * by * read")
#
# rootdn can always read and write EVERYTHING!

#######################################################################
# BDB database definitions
#######################################################################

database    bdb
suffix        "dc=oracle,dc=com"
rootdn        "cn=Manager,dc=oracle,dc=com"
# Cleartext passwords, especially for the rootdn, should
# be avoid.  See slappasswd(8) and slapd.conf(5) for details.
# Use of strong authentication encouraged.
rootpw        secret
# The database directory MUST exist prior to running slapd AND
# should only be accessible by the slapd and slap tools.
# Mode 700 recommended.
directory    /var/openldap/openldap-data
# Indices to maintain
index    objectClass    eq 

ユーザ等を設定するldifファイル

dn: dc=oracle,dc=com
objectClass: dcObject
objectClass: organization
dc: oracle
o: oracle

dn: cn=Manager,dc=oracle,dc=com
objectClass: organizationalRole
cn: Manager

dn: ou=People,dc=oracle,dc=com
objectClass: organizationalUnit
ou: People

dn: ou=Group,dc=oracle,dc=com
objectClass: organizationalUnit
ou: Group 

dn: uid=user01,ou=People,dc=oracle,dc=com
uid: user01
objectClass: top
objectClass: account
objectClass: posixAccount
objectClass: shadowAccount
cn: user01
uidNumber: 10001
gidNumber: 10000
homeDirectory: /home/user01
userPassword: secret
loginShell: /bin/bash
shadowLastChange: 10000
shadowMin: 0
shadowMax: 99999
shadowWarning: 14
shadowInactive: 99999
shadowExpire: -1

ldapサーバーの準備ができたら、ZFS Storage Appliance側の設定です。
Configuration > SERVICES > LDAP で、Base search DN とldapサーバーを登録します。

こちらは ldap サーバーに登録した user01 用のシェアを作成したところです。
認証ができないユーザーを user の欄に記載しても、 Unknown or invalid user という警告とともに設定が失敗します。

次にクライアントの設定をします。Solaris 11 の例を簡単に紹介します。
サービスの起動と、参照する ldap サーバの登録後、getent コマンドで確認という流れです。


# svcadm enable svc:/network/nis/domain:default
# svcadm enable ldap/client

# ldapclient manual -a authenticationMethod=none -a defaultSearchBase=dc=oracle,dc=com -a defaultServerList=192.168.56.201

System successfully configured

# getent passwd user01
user01:x:10001:10000::/home/user01:/bin/bash

あとはマウントして user01 で書き込みのテストをします。


# mount -F nfs -o vers=3 192.168.56.101:/export/user01 /mnt
# su user01
bash-4.1$ cd /mnt
bash-4.1$ touch aaa
bash-4.1$ ls -l
total 1
-rw-r--r--   1 user01   10000          0 May 31 04:32 aaa

以上、簡単に ldap サーバーとの連携とクライアントからの接続ができました!

火曜日 5 29, 2012

Ops Center 12c と Sun ZFS Storage Appliance

Ops Center 12c から ZFS Storage Appliance はどうみえるかな、というのを少し紹介します。


スクリーンショット

ダッシュボード画面です。

ダッシュボード画面の続きです。上記画面から下にスクロールしたところです。
データサービスの起動状態やShareの情報が表示されています。

ハードウェアの画面です。

リソースの利用率のチャート画面です。

今回はさわりだけですが、次回はもうすこし色々と紹介していきたいと思います。

木曜日 5 24, 2012

Sun ZFS Storage Appliance 2011.1.3 ファームウェア

先日、Sun ZFS Storage Appliance / Backup Appliance 用のファームウェアのマイナーアップデートがリリースされました。

Release Note などはこちらにあります。
Software Updates

マイナーアップデートなので、機能的な拡張はそれほどはいっていませんが、いくつか紹介したいと思います。

Analytics のデータ保持期間設定

Analytics のデータは Boot Disk に記録されていきますが、多数の監視点を長年撮り続けると、かなり膨大なデータ量になり 閲覧も大変で、容量も圧迫してしまいます。
今回のアップデートで、データの粒度(秒単位、分単位、時間単位のデータ)ごとにどれくらいの期間保存するかを設定 できるようになりました。


Analytics のデータセットの部分消去

また、データセットごと(例えば、CPUの使用率や、DiskのIOPSなど)の単位で古いデータを一部削除といったこともできるようになりました。 いままでは、全部消去か残しておくかだけでしたので、非常に多くの監視点を設定していても過去のデータによるディスク消費をコントロール できるようになり、より監視・管理がしやすくなっています。

Exadata Backup について Online Help に追加

Application Integration の項目に Exadata Backup の際の設定等が追加されました。

月曜日 4 16, 2012

SPC-2 ベンチマークにも Sun ZFS Storage Appliance が掲載!

先日の SPECsfs2008 に続き、 SPC-2ベンチマークに ZFS Storage Appliance の結果が掲載されました。
今回は 7420 です。
SPC-2 MBPS™ が10,703.69でSPC-2 Price-Performanceが$35.24という結果です。
こちらに掲載されていますので、詳しくはこちらもご参照ください。

b00058_Oracle_Sun-ZFS_7420_SPC2_executive-summary.pdf

SPC-2 and SPC-2/E Benchmark Results

木曜日 4 12, 2012

Sun ZFS Backup Appliance 登場!

昨日、Sun ZFS Backup Appliance が発表されました。
Exadata の D2D バックアップ用途の位置づけで、 High Capacity と High Performance の 2 つのモデルがあります。いづれも、SunRack 1242 に搭載されています。
管理機能などは ZFS Storage Appliance と同じですので、簡単に管理できる Web ベースのツールが使用可能で、Analytics などの機能もばっちり使えます。
ハードウェアのスペックは以下のようになっています。

High CapacityHigh Performance
コントローラ
搭載数 2 (クラスタ構成) 2 (クラスタ構成)
CPU Intel Xeon E7-4820 (8-core, 2GHz)x4 Intel Xeon E7-4820 (8-core, 2GHz)x4
メモリ 256GB 256GB
インターフェース QDR Infiniband, 10Gbe, 1Gbe(それぞれ 4 ポートずつ搭載) QDR Infiniband, 10Gbe, 1Gbe(それぞれ 4 ポートずつ搭載)
ディスクシェルフ
ディスク容量(Raw) 132TB 55TB
ディスクシェルフ数 2 (最大 22 シェルフ増設可能) 4 (最大 22 シェルフ増設可能)
ディスクタイプ 3TB 7200rpm 600GB 15000rpm
書き込みキャッシュ本数 4 4

また、ソフトウェアのプラグインを使うことにより、ZFS Backup Appliance の設定と Exadata の設定がコマンドラインで一括してできるようになります。
これにより、さらに簡単にバックアップ・リストアの環境を構築することができます。
OTN よりダウンロード可能で、マニュアルもダウンロードパッケージの中に含まれています。

Oracle Exadata Backup Configuration Utility v1.0.1
Oracle ZFS Storage Appliance Plugin Downloads

USの製品ページはこちら。

水曜日 4 11, 2012

Sun ZFS Storage Appliance 7120, 7320 アップデート

Sun ZFS Storage Appliance 7320 のメモリ構成と接続ディスクシェルフ数および 7120 のメモリ構成が強化されました。
変更になったハードウェアのスペックは以下の部分になります。

Sun ZFS Storage Appliance 7320

従来新構成
Memory 24GB,48GB,72GB 96GB, 144GB
ディスク容量(最大) 288TB 432TB
書き込みキャッシュ本数(最大) 16 24
Shelf数 4 6

Sun ZFS Storage Appliance 7120

従来新構成
Memory 24GB 48GB

なお、新構成については、ファームウェアのバージョンが現時点で最新の 2011.1.2.1 での対応となります。

土曜日 4 07, 2012

Enterprise Manager 12c と ZFS Storage Appliance

今回は簡単にではありますが、 Enterprise Manager 12c による Sun ZFS Storage Appliance の監視について紹介していきたいと思います。

まず、Enterprise Manager から Sun ZFS Storage Appliance を監視するには、プラグインを Enterprise Manager にインストールする必要があります。

3月から Sun ZFS Stoarage Appliance の各種プラグインのダウンロードサイトが My Oracle Support から、Oracle Technology Network に移動しましたので、こちらからダウンロードしてください。
一緒に、マニュアルもダウンロードすることができます。
Oracle ZFS Storage Appliance Plugin Downloads

Sun ZFS Storage Appliance 側で準備することは、先ほど紹介したインストールマニュアルの P.3 に記載されている通り、Appliance 内に最初からはいっている Workflow を実行するだけです。



Enterprise Manager 側のインストールと設定は P.10 以降に記載されています。記載の通りに実行していけば、特に問題なく設定できると思います。Enterprise Manager 11g に比べて結構簡単になったかなぁという印象です。
以下にいくつか、スクリーンショットを紹介していきます。
利用状況のしきい値設定と警告といったことは、Sun ZFS Storage Appliance だけでもできますが、Database をはじめとして各種ソフトウェア等と管理を一元化したいときには、Enterprise Manager を使うことでより簡単に監視することが可能です。







金曜日 3 09, 2012

Sun ZFS Storage Appliance 7420 新コントローラー

Sun ZFS Storage Appliance の最上位モデル、7420 の新しいコントローラーがリリースされました。
主に変わったハードウェアのスペックは以下の部分になります。その他は構成上、クラスタインターコネクト用の クラスタカードが入っているモデルのみになっています。
CPU 4x 8-core 2.0 GHz 又は
10-core 2.4GHz
Intel® Xeon® プロセッサ(コントローラあたり)
Memory 最小128GB
最大 1TB

CPUのコア数、クロックやメモリが増強されたことにより、データ圧縮や重複排除のような機能がより使い勝手がよくなることと思います。

金曜日 2 24, 2012

SPECsfs2008 に ZFS Storage Appliance が掲載!

先日 SPECsfs2008 に ZFS Storage Appliance の 7320 の結果が掲載されました。
SPECsfs2008_nfs.v3が134140 Ops/Secで Overall Response Timeが1.51 msecという結果です。
こちらに掲載されていますので、詳しくはこちらもご参照ください。

http://www.spec.org/sfs2008/results/res2012q1/sfs2008-20120206-00207.html


上記のリンクの内容に記載されていますが、今回のこのベンチマークの結果は 7320 に Disk Shelf を 6 台構成したもので計測しています。
掲載時時点で 7320 のモデルでは Disk Shelf の接続は 4 台までのサポートですので、ご注意ください。

木曜日 2 16, 2012

Sun ZFS Storage Appliance 筐体内(ローカル)レプリケーション - LUN

以前紹介した Sun ZFS Storage Appliance の 筐体内でレプリケーションですが、実際には Remote Replication に対する呼び方として local Replication と呼んでいます。前回”筐体内”と紹介しましたが、実はシングルコントローラ構成内だけでなく、クラスタ構成でコントローラヘッド間でレプリケーションすることも可能です。

引き続きこの機能について紹介していきますが、今回は iSCSI や Fibre Channel 接続で使う LUN を複製した場合について触れていきたいと思います。

ZFS Storage Appliance 内では、LUN を作成するとそれぞれに GUID という個別の ID が割り振られます。このIDは、システム内でユニークである必要があるため、クローンを作成した場合でも、別の ID が割り振られます。


レプリケーションの場合はちょっと異なります。ここでは、とりあえずレプリケーションの元を A 、レプリケーション先を B とします。
リモートレプリケーションの場合、レプリケーションを構成している間(差分コピーがいつでも送ることができる状態)は、B では GUID が割り振られません。B から A にレプリケーションを戻す(リバースレプリケーション)際に、はじめてGUIDが割り振られ、逆に A のほうの GUID の割り当てがなくなります。
もちろん、レプリケーション中であっても、クローンを作成すればそのクローンには別の GUID が割り振られて LUN として使えるようになります。

ローカルレプリケーションの場合には、若干動作が異なります。
レプリケーションを構成するところまでは一緒なのですが、、


リバースレプリケーションをした際に、異なります。


そのまま同期をかけると、全て GUID が unknown となり、このままではブロックデバイスとしてホストから 使用できません。


そこで、先にちょっと触れましたがクローンを使用することで GUID が割り振られますので、これでホストから使うことができるようにします。
レプリケーションのターゲット側のクローンを作成します。



作成した Clone からレプリケーションを再度構成することも可能です。


木曜日 2 09, 2012

Pillar Axiom 600 搬入風景

Pillar Axiom 600 の搬入に立ち会うことができたので、搬入の様子を紹介します。

ラックの木箱です。左上に Pillar と刻印されています。


木箱にスロープを取り付けて、取り出すところです。


段ボールの中に Brick (ハードディスクや SSD を搭載するトレイ)が入っています。


ラックを設置。 Pilot(管理用のサービスプロセッサ的な筐体) と Slammer (ホストと接続する側のコントローラユニット) が搭載されています。


Pilot が下にラッキングされています。


Brick をラックマウントして、電源を投入した直後の様子。ロゴ部分が点灯しています。システムの状態を示す LED は起動したてのため、点滅中です。(静止画だとわかりませんが)


今後、 Private Cloud 対応ストレージの Pillar Axiom についても取り上げていきますので、ご期待ください。

月曜日 1 16, 2012

Sun ZFS Storage Appliance 筐体内レプリケーション

Sun ZFS Storage Appliance の 2011.1 ファームウェアの新機能の一つになりますが、今回のリリースから筐体内でレプリケーションを構成することができるようになりました。

スナップショット/クローンの機能との違いは、簡単にいうと
  • スナップショット/クローンは元のデータのポイントインタイムコピーで、一瞬で作成でき容量としては差分しか消費しませんが、元のデータだけを削除することはできません
  • レプリケーションは複製を作るため、初期のコピーには容量に応じた時間が必要で、元データと同じように容量を消費しますが、元データを削除しても独立して残しておくことが可能です。更新は従来のレプリケーションと同様、差分のアップデートを手動やスケジュール管理ですることができます。
となります。
回転数の異なるHDDを使ってデータのライフサイクルを考えた運用をしたり、HDDの世代交代に合わせてデータマイグレーションを行ったりといったことにも使える、便利な機能だと思います。

設定方法は至って簡単で、従来からある Remote Replication の設定と手順は全く一緒で、Target にループバックアドレスを設定するだけです。
Simulator を使った例を以下に紹介します。

まず、Service -> Remote Replication タブから、レプリケーションの設定を開きます


このように、すんなり構成できます。2010.Q3までのファームウェアでは構成できませんでした。


Project のレプリケーション設定画面です。ここはいつも通りで、Target に先ほど設定した"local"という名前が選択されています。


マニュアルでレプリケーションを実施したところです。ソースとターゲットが両方表示されています。画面上方にもレプリケーションが完了したログがでています。


以上、今までレプリケーションを使っていた方でも初めて使う方でも、簡単にセットアップできます。

金曜日 1 13, 2012

Sun ZFS Storage Appliance アップデート

久しぶりの投稿となる今回は、2011年末から2012年始にかけての Sun ZFS Storage Appliance のアップデートを紹介します。
まず、2011年末にファームウェアの最新版 2011.1 がリリースされました。
様々な点での性能向上が盛り込まれており、SPC-1 ベンチマークもこのファームウェアを使って計測されています。

SPC-1 ベンチマークの詳細については、以下のリンクの Oracle Corporation A00108 SPC-1 の結果をご覧ください。
http://www.storageperformance.org/results/benchmark_results_spc1/#oracle_spc1.

今までのファームウェアと同様、今回も ZFS Storage Appliance Simulator にもこのアップデートは適用できます。


詳細な情報はこちらをご参照ください。
リリースノート
Software Updates
マニュアル
Sun ZFS Storage 7x20 Appliance, Release 2011.1 Documentation

また年明け早々に 3TB のハードディスクドライブが 3 モデル全てでサポートされ、より大容量の構成ができるようになりました。

モデル 最大物理容量
7120 177TB
7320 228TB
7420 1.73PB
About

Search

Categories
Archives
« 4月 2014
  
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
   
       
今日