火曜日 7 21, 2015

Solaris 11.3 Beta に関するブログ記事の紹介 Part 2

はじめに


前回に引き続き Solaris 11.3 に関連したブログ記事をご紹介します。
今回は、セキュリティとコンプライアンス、システム管理、仮想化、ZFS についてのブログ記事をご紹介いたします。

前回の記事をご覧になっていない方は こちら をご覧ください(Solaris 11.3 Beta のアナウンスメント、データベース関連のエンハンス、開発者向けの記事、OpenStack 関連の記事のまとめを紹介しています)。


セキュリティとコンプライアンス


New Security Extensions in Oracle Solaris 11.3 (Solaris 11.3 のセキュリティの新機能)

https://blogs.oracle.com/observatory/entry/new_security_extensions_in_oracle

Kris Kooi のブログ記事です。
Solaris 11.1 で実装された ASLR(アドレス空間配置のランダム化) に加えて、Solaris 11.3 では NXSTACK(non-executable stack) と NXHEAP(non-executable heap) の二つの実行領域保護機能が実装され、セキュリティが強化されています。また、sxadm コマンドが変更され、セキュリティ拡張機能の管理がより簡単になりました。
このブログ記事では NXSTACK と NXHEAP の挙動と sxadm コマンドの使い方をご紹介しています。


OpenSSL on Oracle Solaris 11.3 (Solaris 11.3 の OpenSSL)

https://blogs.oracle.com/observatory/entry/openssl_on_oracle_solaris_11

Misaki Miyashita のブログ記事です。
Solaris 11.3 の OpenSSL について、SSLv2 の EOL、マルチスレッドプログラムやマルチプロセスプログラムでの安全性の向上などの変更点についてご紹介しています。
Solaris 版の OpenSSL については Solaris 11.2 の変更点 も合わせてご覧ください。


Customising Solaris Compliance Policies (コンプライアンス・ポリシーのカスタマイズ)

https://blogs.oracle.com/darren/entry/customising_solaris_compliance_policies

Darren Moffat のブログ記事です。
Solaris 11.2 から コンプライアンス・フレームワーク が実装されています。
Solaris 11.3 では、コンプライアンス要件のカスタマイズを容易にするため、compliance コマンドに tailor サブコマンドが実装されました。カスタマイズを再利用するための export アクションも実装されています。
このブログ記事では tailor サブコマンドの実行例をご紹介しています。


Solaris new system calls: getentropy(2) and getrandom(2) (Solaris の新しいシステムコール: getentropy(2) と getrandom(2))

https://blogs.oracle.com/darren/entry/solaris_new_system_calls_getentropy

Darren Moffat のブログ記事です。
Solaris 11.3 から getrandom(2) と getentropy(2) というシステムコールが追加されました。getrandom(2) はランダムなビットストリームを生成し、getentropy(2) はランダムビット生成器で使用するためのエントロピーを生成します。どちらも OpenBSD や Linux の同名の API と互換性があります。
このブログ記事では、この二つのシステムコールを使用する際の注意点をご紹介しています。


Applying Rights Profiles to RAD Modules in Oracle Solaris 11.3 (Solaris 11.3 の RAD モジュールに権利プロファイルを適用する)

https://blogs.oracle.com/gfaden/entry/applying_rights_profiles_to_rad

Glenn Faden のブログ記事です。
Solaris 11.3 から RAD モジュールごとに RBAC のプロファイルを設定することができるようになりました。User Manager GUI を例にして、新しい RAD とプロファイルの関係をご紹介します。


PF for Solaris (Solaris の PF)

https://blogs.oracle.com/solarisfw/entry/pf_for_solaris

これまで Solaris にバンドルされている Firewall ソフトウェアは IPF でしたが、Solaris 11.3 から OpenBSD 由来の PF も加わりました。
このブログ記事では IPF から PF に移行する際の注意点や PF を使い始める手順をご紹介しています。


Solaris Kernel Zones Verified Boot (Solaris Kernel Zones の Verified Boot)

https://blogs.oracle.com/DanX/entry/solaris_kernel_zones_verified_boot

Verified Boot は OS の起動時にカーネルモジュールの署名を確認して、不正なモジュールや壊れているモジュールを検知する機能です。Verified Boot は Solaris 11.2 で実装されました。
Solaris 11.3 では、Verified Boot が Kernel Zone の起動にも利用できるようになりました。
このブログ記事では Kernel Zones Verified Boot の構成の仕方とその動作をご紹介しています。
Verified Boot については こちら も合わせてご参照ください。


Solaris 11.3: New Immutable Global Zone file-mac-profile: dynamic-zones (Solaris 11.3: Immutable Global Zone の file-mac-profile の新しいパラメータ: dynamic-zones)

https://blogs.oracle.com/casper/entry/solaris_11_3_new_immutable

Solaris 11.2 で Immutable Global Zone が実装されました。Immutable Global Zone は、ファイルシステムへの変更が制限された Global Zone です。これまで、Immutable Global Zone に指定できる制限のプロファイルは、none, strict, fixed-configuration, flexible-configuration のいずれかでしたが、Solaris 11.3 では新しいプロファイルとして dynamic-zones が追加されました。
dynamic-zones プロファイルは OpenStack Nova から使用されることを想定しており、fixed-configuration プロファイルを Zone の作成・破棄ができるように緩和したプロファイルです。


Solaris 11.3: New per-share, per-instance reserved port property for NFS (Solaris 11.3: NFS のシェア毎、インスタンス毎の特権ポートプロパティ)

https://blogs.oracle.com/casper/entry/solaris_11_3_new_per

NFS_PORTMON は、NFS サーバにアクセスがあった際に、クライアント側のポート番号が特権ポートだった場合のみにアクセスを許可するための設定です。
これまで NFS_PORTMON の設定は /etc/system に nfssrv:nfs_portmon を記載する方式でした。現在の Solaris では Zone 毎に NFS サーバを起動することができるため、NFS_PORTMON もより細かい区切りで有効・無効の制御ができるよう、Solaris 11.3 からは share 毎に NFS_PORTMON を設定できるような方法が追加されました。


OpenSSH in Solaris 11.3 (Solaris 11.3 の OpenSSH)

https://blogs.oracle.com/darren/entry/openssh_in_solaris_11_3

これまで Solaris の SSH は OpenSSH から分岐した SunSSH が標準でした。
Solaris 11.3 からは SunSSH だけでなく OpenSSH のパッケージもバンドルされるようになり、どちらを使用するか OS の管理者が選択できるようになりました。将来的には OpenSSH が標準になる見込みです。


システム管理


Periodic and scheduled services with SMF (SMF を使った処理の定期実行と定時実行)

https://blogs.oracle.com/gman/entry/periodic_and_scheduled_services_with

Solaris 11.3 から、プログラムの定期的な繰り返し実行やスクリプトの定時実行を SMF で管理 できるようになりました。これまで Cron に設定していたような内容を SMF のマニフェストファイルで管理できるようになり、IPS との連携もしやすくなりました。
定期実行の場合はマニフェストファイルに periodic_method を定義し、定時実行の場合は scheduled_method を定義します。


Cron Begone: Predictable Task Scheduling (さようなら Cron、予測可能なタスク管理)

https://blogs.oracle.com/SolarisSMF/entry/cron_begone_predicable_task_scheduling

Solaris 11.3 で実装された SMF の Periodic Restarter と Scheduled Services について、Cron に比べて優れている点として、エラーハンドリング、一貫性のあるログ管理、依存関係の解決、ライフサイクルの制御しやすさ、システム停止により実行されなかったタスクの実行管理、タスクの実行が特定の時間に集中して高負荷になることを防ぐためのランダム性を挙げています。


Solaris 11.3 beta: Changes to bundled software packages (Solaris 11.3 Beta で更新されたバンドルパッケージ一覧)

https://blogs.oracle.com/alanc/entry/solaris_11_3_beta_changes

Solaris 11.3 Beta で追加・更新された主なパッケージの一覧です。
Python 3, OpenSSH, Apache 2.4, OpenBSD PF, Puppet Hiera などが新規で追加されています。 pigz は CMT と相性が良いので、ぜひお使いください。


Introduction to svcbundle(1M) (svcbundle のご紹介)

https://blogs.oracle.com/SolarisSMF/entry/introduction_to_code_svcbundle_code

新しい SMF サービスを作成する際のハードルの一つに、マニフェストファイルの作成があります。svcbundle コマンドは、マニフェストファイルの作成を助けてくれるコマンドです。コマンドラインオプションで name=value 形式でパラメータを指定すると、SMF のマニフェストの XML ファイルを生成してくれます。


Remote Administration with RAD and Oracle Solaris 11 (RAD を使用したリモートからの管理)

https://blogs.oracle.com/gman/entry/remote_administration_with_rad_and

このブログ記事では、Python, C, Java, RESTful API を使ってプログラムから Solaris を管理できる RAD インターフェイスについて紹介しています。

RAD については Getting Started with the Remote Administration Daemon on Oracle Solaris 11 もご参照ください。


New flowadm features in Solaris 11.3 (flowadm の新機能)

https://blogs.oracle.com/yenduri/entry/new_flowadm_features_in_s11

Solaris 11.3 で flowadm コマンドに追加された新機能の中から、1. flow 上のパケットに DSCP を設定できるようになった、2. flow に direction 属性を設定して inbound のみや outbound のみの flow を作成できるようになった、3. flow 属性の組み合わせ制限 ("サポートされている属性の組み合わせ") の撤廃、4. 同一リンク上に異なる flow 属性の組み合わせをもった flow を作成できない制限 ("特定リンク上のすべてのフローが同じ組み合わせを保持する必要があり") の撤廃、同一パケットが複数の flow にマッチするような flow の作成が可能になった、flow の適用順を指定する rank 属性の追加、についてご紹介しています。


Private VLAN in Solaris 11.3 (Solaris 11.3 のプライベート VLAN)

https://blogs.oracle.com/yenduri/entry/private_vlan_in_solaris_11

Solaris 11.3 で実装された Private VLAN について、isolated VLAN と community VLAN の構成の仕方、Zone への割り当ての仕方、sub-VLAN に VLAN タグを設定する方法をご紹介しています。


Solaris 11.3: rtc(1m) no longer warps the time by default (Solaris 11.3 ではリアルタイムクロックのタイムゾーンを変更する際に、デフォルトではシステムの時間は変更されない)

https://blogs.oracle.com/casper/entry/solaris_11_3_rtc_1m

Solaris 11.3 では rtc(1M) コマンドに -w オプションが追加されました。x86 Solaris で、リアルタイムクロックのタイムゾーンを変更する際に -w オプションを付けるとシステムの時間がリアルタイムクロックに合わせて変更されます。-w オプションを付けない場合はシステムの時間は変更されず、リアルタイムクロックの時間が更新されます。


rcapd enhancements in Solaris 11.3 (Solaris 11.3 におけるリソース上限デーモンの改良)

https://blogs.oracle.com/puneetpruthi/entry/rcapd_enhancements_in_solaris_11

Solaris 11.3 では rcapd の設定がより簡潔・簡単になり、メモリページ選択のアルゴリズムがより効率的なものに変更され、rcapd の動作がシステム全体の性能を低下させないような挙動になりました。


Multi-CPU bindings for Solaris Project (Multi-CPU bindings を Solaris Project で使用する)

https://blogs.oracle.com/zoneszone/entry/multi_cpu_bindings_for_solaris

MCB (Multi-CPU binding) は、プロセスを特定の CPU のグループに結び付ける機能です。類似の機能にプロセッサーセットがありますが、プロセッサーセットが CPU の排他的な区画を作成するのに対し、MCB では他の MCB に入っている CPU も指定することが可能です。
MCB は Solaris 11.2 で実装されました。Solaris 11.3 からは、MCB がプロジェクトに設定できるようになっています。 このブログ記事では、プロジェクトで実際に MCB を使用する例をご覧いただけます。


仮想化


Introducing Secure Live Migration (安全なライブマイグレーションのご紹介)

https://blogs.oracle.com/listey/entry/introducing_secure_live_migration

Solaris 11.3 から Kernel Zone のライブマイグレーションができるようになりました。
このブログ記事では、Solaris 11.3 の Kernel Zone のライブマイグレーションがセキュリティに配慮していること、ライブマイグレーションを実施するにあたっての Tips がまとめられています。


Secure multi-threaded live migration for kernel zones (Kernel Zones の安全でマルチスレッド化されたライブマイグレーション)

https://blogs.oracle.com/zoneszone/entry/live_migration_for_kernel_zones

Kernel Zone のライブマイグレーションの手順と、その背後で行われているネットワーク通信について、実例を元にご紹介しています。

Kenel Zone のライブマイグレーションについては こちら もご覧ください。


New features in Oracle Solaris Zones (Solaris Zones の新機能)

https://blogs.oracle.com/listey/entry/new_features_in_oracle_solaris

Solaris 11.3 の Zone の新機能として、Kernel Zone のセキュアなライブマイグレーション、NFS 上に Kernel Zone のルートファイルシステムを作成できるようになったこと、Kernel Zone の稼働中にネットワークとデバイスの構成変更が可能になったこと、Native Zone で仮想クロックが使えるようになったことを紹介しています。


PV IPoIB in Kernel Zones in Solaris 11.3 (Solaris 11.3 の Kernel Zones の PV IPoIB)

https://blogs.oracle.com/observatory/entry/pv_ipoib_in_kernel_zones

Solaris 11.3 から Kernel Zone で Paravirtualized IP over Infiniband データリンクを使用できるようになりました。このブログ記事では PV IPoIB の構成手順をご紹介します。


Managing Orphan Zone Boot Environments (Orphan Zone Boot Environment の管理)

https://blogs.oracle.com/puneetpruthi/entry/managing_orphan_zone_boot_environments

Zone のマイグレーションや Zone のアーカイブを attach する際に発生する Orphaned Boot Environment を管理する方法として、beadm list の出力に Orphaned BE であることを示すフラグが追加され、beadm destroy で Orphaned BE を削除できるようになり、zoneadm attach に Orphaned BE の生成を制御するオプションが追加されました。


Kernel zone suspend now goes zoom! (Kernel Zones のサスペンドの高速化)

https://blogs.oracle.com/zoneszone/entry/kernel_zone_suspend_now_goes

Solaris 11.2 には Global Zone が再起動した際に Kenel Zone が自動的にサスペンド、レジュームする機能が実装されています。Solaris 11.3 からはメモリの圧縮・展開、および暗号化・複合がマルチスレッド化され、サスペンド、レジュームの処理時間が改善されました。


Shared Storage on NFS for Kernel Zones (Kernel Zones の NFS へのインストール)

https://blogs.oracle.com/zoneszone/entry/shared_storage_on_nfs_for

Solaris 11.2 から Zone のルートファイルシステムを iSCSI デバイス上に配置できるようになりました。Solaris 11.3 ではさらに NFS 上にも Zone のルートファイルシステムを配置できるようになっています。
このブログ記事では NFS 上に Zone をインストールする手順をご紹介しています。


Different time in different zones (Zone 毎に異なる時間の設定)

https://blogs.oracle.com/anuthan/entry/different_time_in_different_zones

Solaris 11.3 から Solaris Zones と Solaris 10 Branded Zones で Zone 固有の時間を設定できるようになりました。
このブログ記事では、その設定パラメータと挙動をご紹介しています。


ZFS


Changes to ZFS ARC Memory Allocation in 11.3 (Solaris 11.3 の ZFS ARC メモリアロケーションの変更点)

https://blogs.oracle.com/observatory/entry/changes_to_zfs_arc_memory

Solaris 11.3 から ZFS の ARC の管理方法が代わり、キャッシュの大半は Kernel Object Manager によって Kernel Cage の外に配置されるようになりました。
これにより多くのシステムで zfs:zfs_arc_max の設定が不要になり、スケーラビリティも向上しました。


Welcome to Oracle Solaris 11.3 ZFS (Solaris 11.3 ZFS のご紹介)

https://blogs.oracle.com/zfs/entry/welcome_to_oracle_solaris_11

Solaris 11.3 の ZFS の新機能として、LZ4 圧縮、defaultuserquota および defaultgroupquota パラメータによるデフォルトの Quota の設定、zpool monitor サブコマンドによるプールの監視、使用されていないスペアディスクの異常検知、メモリ操作とブロック割り当ての効率化、SMB 2.1 対応を挙げています。


まとめ


以上、Solaris 11.3 Beta に関するブログ記事をまとめてご紹介いたしました。

ご覧いただきました通り、Solaris 11.3 にはとてもたくさんの修正・改善・新機能が含まれています。ぜひ Beta 版をダウンロード、インストールしていただき Solaris の勢いを感じていただけたらと思います。

Solaris 11.3 の正式リリースもどうぞご期待ください。

月曜日 7 13, 2015

Solaris 11.3 Beta に関するブログ記事の紹介 Part 1

はじめに

先日、Solaris 11.3 Beta が 公開 されました。
それに合わせて Solaris 11.3 に関連したブログ記事が多数アップされています。
本稿ではそれらのブログ記事を簡単にまとめてご紹介したいと思います。

ブログ記事の数が多いため、前後半に分けて、今回は Solaris 11.3 Beta のアナウンスメント、データベース関連のエンハンス、開発者向けの記事、OpenStack 関連の記事をご紹介します。
次回の更新では、セキュリティとコンプライアンス、システム管理、仮想化、ZFS についての記事をご紹介する予定です。

Solaris 11.3 の新機能の多さと Solaris の開発の盛り上がりを感じていただけたら幸いです。


アナウンスメント


Release of Oracle Solaris 11.3 Beta

https://blogs.oracle.com/markusflierl/entry/release_of_solaris_11_3

Solaris 開発責任者の Marcus Flierl のブログです。
Solaris 11.3 は最も先進的なエンタープライズ・クラウド・プラットフォームであるとし、セキュリティとコンプライアンス、仮想化、OpenStack、ネットワーキング、Oracle DB との親和性について注目機能をご紹介しています。


Oracle Solaris 11.3 Beta Now Available!

https://blogs.oracle.com/gman/entry/oracle_solaris_11_3_beta

Glynn Foster のブログです。
Solaris 11.3 の新機能で特に気に入っているものとして、OpenStack Juno 対応、Kernel Zones のライブマイグレーション、Zone を NFS 上に配置できること、LZ4 による ZFS の圧縮率の向上、PVLAN のサポート、RAD モジュールの追加とREST API によるアクセス、Hiera による Puppet のマニフェストの変数の置換、Oracle DB 12c の起動時間の短縮と Optimized Shared Memory による SGA のサイズ変更、不正なメモリアクセスを防ぐ Application Data Integrity を含んだ次世代 CPU の SPARC M7 への対応を挙げています。


Oracle Solaris 11.3 Beta is now available

https://blogs.oracle.com/partnertech/entry/oracle_solaris_11_3_beta

Caryl Takvorian のブログです。
ISV の開発者やアーキテクト向けに Solaris の新機能を紹介しています。
Solaris 11.3 の注目の機能として、セキュリティのツールとコンプライアンスレポート、SPARC M7 に実装された ADI に対応した mdb や DTrace などのコマンドおよび libadimalloc ライブラリ、Kernel Zones のライブマイグレーション、Heat、Ironic、Murano などの OpenStack の新サービスの追加、仮想化、簡単で高速な ライフサイクル管理 を挙げています。


Oracle Solaris 11.3: Securing and Simplifying the Enterprise Cloud

https://blogs.oracle.com/solaris/entry/solaris_11_3_beta

Larry Wake のブログです。
Solaris 11 は既に OS のプロビジョニングやメンテナンス に関する優れた機能を持っており、システムへの攻撃に対する徹底的な防御機能 も更なる進化を遂げています。コンプライアンスのフレームワークOpenStack の統合、Unified Archive なども実装されています。
Solaris 11.3 では、それらに加えて、OpenStack Juno への対応、Kernel Zone の安全なライブマイグレーション、Zone の動的構成変更、Verified Boot、NFS 上に Zone を作成する機能、Oracle DB の起動時間の短縮、コンプライアンス機能の拡張、SPARC M7 の ADI への対応、LZ4 を使った ZFS の圧縮率の向上、異なる ZFS スナップショット間の差分の再帰的な比較、SMB プロトコルのバージョンアップなど、多数の新機能が加わったことを紹介しています。


Here's Your Oracle Solaris 11.3 List of Blog Posts

https://blogs.oracle.com/solaris/entry/solaris_11_3_bloglist

ブログ記事へのリンク集です。この記事の英語版です。


Oracle Solaris 11.3 Blog Posts, Part Two

https://blogs.oracle.com/solaris/entry/11_3_bloglist_the_sequel

ブログ記事へのリンク集の Part 2 です。


データベース関連


Oracle Instant Client: now available in IPS

https://blogs.oracle.com/jmcp/entry/oracle_instant_client_now_available

Oracle Instant Client に含まれている sqlplus や wrc などの Oracle DB のクライアントツールが http://pkg.oracle.com/ から pkg コマンドでインストールできるようになりました。Oracle Instant Client のバージョンが上がるごとに pkg.oracle.com の IPS のパッケージも更新されていきます。
Solaris の開発が Sun の Bugster から Oracle の Bug DB に移行した際の話もお読みいただけます。


Virtual Address Reservation in Solaris 11.3

https://blogs.oracle.com/observatory/entry/virtual_address_reservation_in_solaris

VA Reservation はプロセスのメモリ空間内の特定の領域を予約する機能です。プログラムのコンパイル時に予約したいアドレスとサイズを指定することで、その領域がライブラリのロードなど、他の用途で使用されないようにします。Oracle DB の SGA のように、メモリ領域を特定の場所に確保したい場合に使用する機能です。
このブログエントリーでは VA Reservation の使い方と注意点を紹介しています。


Solaris 11.3: Optimized Shared Memory (OSM)

https://blogs.oracle.com/jwadams/entry/solaris_11_3_optimized_shared

Solaris には巨大な共有メモリ領域を効率的に確保する方法として ISM や DISM が実装されて来ました。OSM は ISM や DISM の後継機能として Solaris 11 や Solaris 10u11 で実装され、Oracle DB では 12c 以降で使用されています。Solaris 11.3 からはこの OSM のインターフェイスが公開され、Oracle DB 以外でも使用可能になりました。
このブログ記事では OSM インターフェイスの使用方法をご紹介しています。
また、Solaris 11.3 では OSM の実装に改善が加わり、このおかげで Oracle DB の shutdown 時間が改善された事も紹介されています。


開発情報


Better performing pthread reader-writer locks for NUMA architectures

https://blogs.oracle.com/observatory/entry/better_performing_pthread_reader_writer

Solaris 11.3 から lock cohorting 技術を使用した、NUMA システム上で効率的に動作するプロセス内 reader writer lock が実装されました。Sai Nanduri がこの rwlock の使い方と使いどころをご紹介しています。


APIs for handling per-thread signals in Solaris

https://blogs.oracle.com/observatory/entry/apis_for_handling_per_thread

Solaris 11.3 から別のプロセスの特定のスレッドにシグナルを送る API が実装されました。Sai Nanduri がそれらの API をご紹介します。


Named threads in Oracle Solaris 11.3

https://blogs.oracle.com/observatory/entry/named_threads

Solaris 11.3 からスレッドに名前を付ける機能が実装されました。
スレッドに命名する API が実装されたほか、ps や prstat コマンド、DTrace などの既存の解析ツールにもスレッド名を表示する修正が施されています。多くの OS 組み込みのプロセスでは既にスレッドに名前がつけられており、解析がしやすくなっています。
また、カーネルのスレッドにも名前が付けられており、DTrace の kthreadname 変数でカーネルのスレッド名を確認することができます。


OpenStack


Upgrading OpenStack from Havana to Juno

https://blogs.oracle.com/openstack/entry/upgrading_openstack_from_havana_to

Drew Fisher の記事です。
Solaris 11.3 に含まれている OpenStack のバージョンは Juno です。Solaris 11.2 GA 版の Havana からは Icehouse をスキップして二つ先のバージョンになります。Havana から Juno へのアップグレード方法を提供する際に体験した問題点と、Solaris の BE を利用した『完全に安全なアップグレード("upgrade to Juno is completely safe")』をご紹介しています。
Solaris の Boot Environment 機能は本当に便利です。


What's New in Solaris OpenStack Juno Neutron

https://blogs.oracle.com/openstack/entry/what_s_new_in_solaris

Solaris 11.3 の OpenStack Juno で加わった新機能について、1. テナントネットワークの IPv6 対応、2. Source NAT、3. メタデータサービス、4. Flat L2 ネットワークタイプ、5. neutron コマンドの新しいサブコマンドの 5 点を解説しています。


Configuring the Neutron L3 Agent in Solaris OpenStack Juno

https://blogs.oracle.com/openstack/entry/configuring_the_neutron_l3_agent

Solaris 11.3 の OpenStack Juno で Neutron を使用してネットワークセグメントとルーターを構成する手順を解説しています。


Oracle Solaris gets OpenStack Juno Release

https://blogs.oracle.com/openstack/entry/oracle_solaris_gets_openstack_juno

Solaris 11.2 SRU10 で OpenStack Juno が実装された際のアナウンスメントです。Solaris 11.3 の OpenStack Juno はここから更に改良と新機能が加わったものになっています。


OpenStack Juno in Solaris 11.3 Beta

https://blogs.oracle.com/openstack/entry/openstack_juno_in_solaris_11

Oracle 社内の Solaris のテスト・開発環境が OpenStack を使ったクラウドで運用されていること、Solaris 11.3 の OpenStack の始め方や新機能が紹介されています。


Upgrading Solaris Engineering's OpenStack Cloud

https://blogs.oracle.com/dminer/entry/safely_updating_a_solaris_openstack https://blogs.oracle.com/openstack/entry/upgrading_the_solaris_engineering_openstack

Dave Miner の記事です。
Solaris の開発環境を OpenStack Havana から OpenStack Juno にアップグレードした際の手順と体験談が紹介されています。このブログの過去の記事には、Solaris の開発環境を OpenStack で構築した際の手順も紹介されていますので、合わせてご覧ください。


以上、Solaris 11.3 Beta のアナウンスメント、データベース関連のエンハンス、開発者向けの記事、OpenStack 関連のブログ記事をご紹介しました。Solaris 11.3 がどのような位置づけのリリースかご理解いただけたのではないかと思います。

次回の更新では、セキュリティとコンプライアンス、システム管理、仮想化、ZFS についてのブログ記事をご紹介する予定です。どうぞご期待ください。

このブログエントリーは vim -u NONE で Markdown ファイルを作成し、変換フィルターを使って HTML を生成しました。 やはり素の vi が一番ですね。

金曜日 7 10, 2015

Oracle Solaris の SAS ドライバについて

Solaris の SAS driver

Solaris が標準で持っている SAS driver

Solaris が持っている SAS driver を整理してみる。
色々あるが、これからは lmrc か lsc を選択するのが良いかと思い、手元では LSI SAS9300-4i (lsc driver) と LSI MegaRAID SAS 9341-4i (lmrc: Solaris 11.2 SRU 12 or Solaris 11.3 Beta でサポート) が動いていますが、どちらも Oracle のオプションとして販売されているものではありません。
pmcs という謎ドライバもありますが、これは、Adaptec by PMC 製品用の driver になり、何をサポートしているかは良くわかっていません。

SAS version driver name desc.
3.0 lmrc LSI MegaRAID SAS 3.0 Controller HBA driver
3.0 lsc LSI SAS 3.0 host bus adapter driver
2.0 pmcs PMC-Sierra SAS 2.0 HBA driver
2.0 mpt_sas SAS-2 host bus adapter driver
2.0 mr_sas LSI MegaRAID SAS2.0 Controller HBA driver
2.0 scu Intel SAS2.0 storage controller unit driver
2.0 imraid_sas LSI MegaRAID FALCON SAS2.0 Controller HBA driver
1.0 aac SCSI HBA driver for Adaptec AdvancedRAID Controller
1.0 arcmsr SAS and SATA HBA driver for Areca Hardware Raid devices
1.0 cpqary3 provides disk and SCSI tape support for HP Smart Array controllers
1.0 mega_sas SCSI HBA driver for LSI MegaRAID SAS controller
1.0 mpt SCSI host bus adapter driver
  ちなみに、lmrc/lsc driver が認識する device id はこちら。
  
        lmrc "pciex1000,5d"       LSI MegaRAID SAS 9341-4i
        lmrc "pciex1000,5f"       
      
        lsc "pciex1000,96"        SAS9300-4i
        lsc "pciex1000,97"

driver.conf の格納場所について

    Solaris 11 から /etc/driver/drv ディレクトリが用意された。
    このディレクトリに配置された driver.conf ファイルは最優先で読み込まれる。
    /kernel/drv/ や /platform/kernel/drv に配置されるファイルを直接編集せず、/etc/driver/drv に集約することで管理が楽になるので積極的に利用することをオススメ。
    デフォルトで、SAS 関連の driver.conf があるので注意。
    とにかく、driver の設定を変更する場合は、/kernel/drv や /platform/kernel/drv から、ここにファイルをコピーして編集して運用すればいい。
    参考:管理者が提供する driver.conf ファイルのサポート (Oracle Solaris 11 Information Library)

SAS HBA 関連のユーテリティ

  • /usr/sbin/sasinfo
Solaris 11 から追加されたコマンド。 sasinfo は SAS HBA やそれに関連する情報を収集するためのコマンド。
    • LSI SAS9300-4i の例

      # sasinfo hba -v
      HBA Name: SUNW-lsc-0
      Manufacturer: LSI Logic
      Model:  SAS9300-4i
      Firmware Version: 1.0.2.0
      FCode/BIOS Version: not available
      Serial Number: 
      Driver Name: lsc
      Driver Version: lsc driver
      Number of HBA Ports: 1
    • Avago (LSI) MegaRAID SAS 9341-4i の例

      $ sasinfo hba -v
      HBA Name: SUNW-lmrc-0
      Manufacturer: LSI Logic
      Model:  AVAGO MegaRAID SAS 9341-4i
      Firmware Version: 4.280.01-4227
      FCode/BIOS Version: not available
      Serial Number: 
      Driver Name: lmrc
      Driver Version: LMRC Driver 1.3.0.0
      Number of HBA Ports: 0

Avago (LSI) が提供する RAID 機能を持つ SAS HBA 向けのユーテリティ。
Solaris の lmrc driver をサポートしている。

# ./storcli /c0 show 
Generating detailed summary of the adapter, it may take a while to complete.

Controller = 0
Status = Success
Description = None

Product Name = AVAGO MegaRAID SAS 9341-4i
Serial Number = SV
SAS Address =  500605b00700d600
PCI Address = 00:0a:00:00
System Time = 07/10/2015 08:24:55
Mfg. Date = 11/12/13
Controller Time = 07/09/2015 23:24:47
FW Package Build = 24.8.0-0020
BIOS Version = 6.24.05.0_4.17.08.00_0x060D0200
FW Version = 4.280.01-4227
Driver Name = lmrc
Driver Version = LMRC Driver 1.3.0.0
Vendor Id = 0x1000
Device Id = 0x5F
SubVendor Id = 0x1000
SubDevice Id = 0x9343
Host Interface = PCIE
Device Interface = SAS-12G
Bus Number = 10
Device Number = 0
Function Number = 0
Drive Groups = 1

TOPOLOGY :
========

--------------------------------------------------------------------------
DG Arr Row EID:Slot DID Type  State BT       Size PDC  PI SED DS3  FSpace 
--------------------------------------------------------------------------
 0 -   -   -        -   RAID0 Optl  N  232.375 GB dflt N  N   dflt N      
 0 0   -   -        -   RAID0 Optl  N  232.375 GB dflt N  N   dflt N      
 0 0   0   62:0     10  DRIVE Onln  N  232.375 GB dflt N  N   dflt -      
--------------------------------------------------------------------------

DG=Disk Group Index|Arr=Array Index|Row=Row Index|EID=Enclosure Device ID
DID=Device ID|Type=Drive Type|Onln=Online|Rbld=Rebuild|Dgrd=Degraded
Pdgd=Partially degraded|Offln=Offline|BT=Background Task Active
PDC=PD Cache|PI=Protection Info|SED=Self Encrypting Drive|Frgn=Foreign
DS3=Dimmer Switch 3|dflt=Default|Msng=Missing|FSpace=Free Space Present

Virtual Drives = 1

VD LIST :
=======

-----------------------------------------------------------
DG/VD TYPE  State Access Consist Cache sCC       Size Name 
-----------------------------------------------------------
0/0   RAID0 Optl  RW     Yes     NRWTD -   232.375 GB      
-----------------------------------------------------------

Cac=CacheCade|Rec=Recovery|OfLn=OffLine|Pdgd=Partially Degraded|dgrd=Degraded
Optl=Optimal|RO=Read Only|RW=Read Write|B=Blocked|Consist=Consistent|
R=Read Ahead Always|NR=No Read Ahead|WB=WriteBack|
AWB=Always WriteBack|WT=WriteThrough|C=Cached IO|D=Direct IO|sCC=Scheduled
Check Consistency

Physical Drives = 1

PD LIST :
=======

--------------------------------------------------------------------
EID:Slt DID State DG       Size Intf Med SED PI SeSz Model       Sp 
--------------------------------------------------------------------
62:0     10 Onln   0 232.375 GB SATA HDD N   N  512B VB0250EAVER U  
--------------------------------------------------------------------

EID-Enclosure Device ID|Slt-Slot No.|DID-Device ID|DG-DriveGroup
DHS-Dedicated Hot Spare|UGood-Unconfigured Good|GHS-Global Hotspare
UBad-Unconfigured Bad|Onln-Online|Offln-Offline|Intf-Interface
Med-Media Type|SED-Self Encryptive Drive|PI-Protection Info
SeSz-Sector Size|Sp-Spun|U-Up|D-Down|T-Transition|F-Foreign
UGUnsp-Unsupported|UGShld-UnConfigured shielded|HSPShld-Hotspare shielded
CFShld-Configured shielded

Avago (LSI) が提供する RAID 機能を持たない SAS HBA 向けのユーテリティ。

# ./sas3ircu 0 display
Avago Technologies SAS3 IR Configuration Utility.
Version 09.00.00.00 (2015.02.03) 
Copyright (c) 2009-2015 Avago Technologies. All rights reserved. 

Read configuration has been initiated for controller 0
------------------------------------------------------------------------
Controller information
------------------------------------------------------------------------
  Controller type                         : SAS3004
  BIOS version                            : 8.03.00.00
  Firmware version                        : 1.00.02.00
  Channel description                     : 1 Serial Attached SCSI
  Initiator ID                            : 0
  Maximum physical devices                : 1023
  Concurrent commands supported           : 10240
  Slot                                    : 3
  Segment                                 : 0
  Bus                                     : 10
  Device                                  : 0
  Function                                : 0
  RAID Support                            : No
------------------------------------------------------------------------
IR Volume information
------------------------------------------------------------------------
------------------------------------------------------------------------
Physical device information
------------------------------------------------------------------------
Initiator at ID #0

Device is a Hard disk
  Enclosure #                             : 1
  Slot #                                  : 2
  SAS Address                             : 4433221-1-0100-0000
  State                                   : Ready (RDY)
  Size (in MB)/(in sectors)               : 2861588/5860533167
  Manufacturer                            : ATA     
  Model Number                            : WDC WD30EFRX-68E
  Firmware Revision                       : 0A80
  Serial No                               : WDWMC4N2751827
  GUID                                    : 50014ee059248293
  Protocol                                : SATA
  Drive Type                              : SATA_HDD
------------------------------------------------------------------------
Enclosure information
------------------------------------------------------------------------
  Enclosure#                              : 1
  Logical ID                              : 500605b0:06cce680
  Numslots                                : 4
  StartSlot                               : 0
------------------------------------------------------------------------
SAS3IRCU: Command DISPLAY Completed Successfully.
SAS3IRCU: Utility Completed Successfully.

MPxIO (マルチパス)

SAS もマルチパスの対象となる。

Solaris 11.2 まで:

プラットフォーム 状態
x86 デフォルトで有効
SPARC オプション

Solaris 11.3 から:

プラットフォーム 状態
x86 デフォルトで有効
SPARC デフォルトで有効

mpxio が有効になっていると scsi_vhci (7d) driver でデバイスが管理される。

    root@solaris:~/solaris~on-src# format
    Searching for disks...done
    
    
    AVAILABLE DISK SELECTIONS:
           0. c0t0d0 
              /scsi_vhci/disk@g600605b00700d6001cddfb8a0bcf23c4
    
/etc/driver/drv/lmrc.conf に mpxio-disable="yes"; を追加して reboot すれば良いがコントローラ番号が変わってしまうので注意(device path が変更になるため)
    root@solaris:~# format
    Searching for disks...done
    
    AVAILABLE DISK SELECTIONS:
           0. c2t0d0 
              /pci@0,0/pci8086,8c10@1c/pci1000,9343@0/iport@v0/disk@v600605b00700d6001cddfb8a0bcf23c4,0
    

参考情報

Todo

  • pkg search pkg.fmri:driver/storage | sort -u
  • 他、なにか忘れてないか確認

  • まったく Solaris とは関係ないのですが、この記事、友人イチオシ無償だけど今からチュウモクシテオケ的な Visual Studio Code の Markdown mode を使って書いてみました。tasks に pandoc を仕掛けて HTML に変換したものをコピペしたのですが、入力も軽快で良い感じに使えています 。code を書くためのものですが便利に使えています。

水曜日 7 08, 2015

Solaris 11.3 Beta が公開されました

Solaris 11.3 の Beta 版が 公開 されましたので早速インストールしてみました。

# cat /etc/release
                            Oracle Solaris 11.3 SPARC
  Copyright (c) 1983, 2015, Oracle and/or its affiliates.  All rights reserved.
                             Assembled 22 June 2015
# uname -srvmpi
SunOS 5.11 11.3 sun4v sparc sun4v
# pkg list entire
NAME (PUBLISHER)                                  VERSION                    IFO
entire                                            0.5.11-0.175.3.0.0.25.0    i--
# pkg info entire
          Name: entire
       Summary: Incorporation to lock all system packages to the same build
   Description: This package constrains system package versions to the same
                build.  WARNING: Proper system update and correct package
                selection depend on the presence of this incorporation.
                Removing this package will result in an unsupported system.
      Category: Meta Packages/Incorporations
         State: Installed
     Publisher: solaris
       Version: 0.5.11 (Oracle Solaris 11.3.0.25.0)
 Build Release: 5.11
        Branch: 0.175.3.0.0.25.0
Packaging Date: June 22, 2015 02:27:46 PM 
          Size: 5.46 kB
          FMRI: pkg://solaris/entire@0.5.11,5.11-0.175.3.0.0.25.0:20150622T142746Z

Solaris 11.3 Beta は こちら からダウンロードしていただけます。

インストール用の OS イメージや Unified Archive のファイル、Kernel Zones の Live Migration に必要なファームウェア、パッケージのリポジトリイメージ、OpenStack お試し用の Unified Archive ファイル、VirtualBox や Oracle VM 用のテンプレートイメージなどが用意されています。

Solaris 11.3 Beta のドキュメントは こちら にあります。

新機能の一覧は こちら の What's New をご覧ください。

いくつかの新機能について紹介したスライドも用意しました。

Solaris の最新機能をぜひお試しください。

金曜日 10 31, 2014

[ホワイトペーパー] Solaris Zone によるハードパーティションの構成

Solaris Zone を使用してハードパーティションを構成する方法がホワイトペーパーとして公開されました。

Solaris 上で Oracle 社製ソフトウェアを稼働させるシステムの導入・設計・提案をご検討されている方は是非ご一読ください。

ハードパーティションについてはこちらをご参照ください。

Solaris Zone ではなく OVM for SPARC を使用してハードパーティションを構成する場合については以下をご参照ください。

Solaris 11 のホワイトペーパーはこちらからアクセスしていただけます。

Oracle Solaris 11.2 マニュアル検索もご活用ください。

※ 上記は 2014/10/31 時点の情報です。

木曜日 8 14, 2014

ZFS Storage Appliance が OpenStack Cinder の block storage resource として利用可能に

Oracle ZFS Storage Appliance の RESTfull API サポートを紹介しましたが、これには続きがありました。 というわけで、RESTfull API が利用できる Oracle ZFS Storage Appliance は、OpenStack Cinder の block storage resource として利用可能になります。 iSCSI を利用した block volume をインスタンスに提供することが可能となり、Oracle ZFS Storage Appliance が提供する機能(暗号化など)と組み合わせることが可能になります。  

下記に必要な条件をまとめてみました。

  • Oracle ZFS Stoarge Appliance の条件
  • Cinder Host の条件
    • Oracle Solaris 11.2 を利用する
      • Oracle Solaris 11.2 の Cinder パッケージに含まれる Oracle ZFS Storage Appliance iSCSI Cinder Driver version 1.0.0 を利用
    • Solaris 11.2 以外の OpenStack Grizlly, Havana リリースの Cinder が動作しているホスト
    • /etc/cinder/cinder.conf に ZFS Storage Appliance の情報を追加
と、このような流れで block storage resource として利用できるようになります。
下記は、Oracle Solaris 11.2 上にて cinder コマンドを利用し volume を作成した例となります。



利用する際には、README (https://openstack.java.net/ZFSSACinderDriver.README) を参照してくださいね。
先に紹介した ZFS Storage Appliance Simulator でも動作すると思います。 

Horizon からインスタンスを作成すると ZOSS (Zones on Shared Storage) を利用した Solaris Zone (iSCSI を利用した volume 上に non-global zone を配置)が作成されることを確認できました。
色々と確認しなければならないことは多いですが、cinder コマンドから ZFS Storage Appliance を操作および利用できるようになったことで、また一つ可能性が広がりました。        

日曜日 8 10, 2014

Oracle ZFS Storage Simulator で RESTfull API を使って情報を参照してみる

2014/8/1 に Oracle ZFS Storage ZS3 シリーズに関する下記リリースを発表させて頂きました。

「Oracle ZFS Storage ZS3」シリーズの仮想化とクラウド機能の強化を発表

その中で気になったのが下記の一文です。

「Oracle ZFS Storage OS 8.2」のクラウド機能の拡張により、「OpenStack Cinder *3」対応のドライバーが追加され、REST対応APIも提供されました。

なんとか試してみたいなぁというわけで、Oracle ZFS Storage Simulator を確認すると、OS 8.2 版に更新されていました。
これは、VirtualBox が動作する環境であれば Oracle ZFS Storage の機能を評価できる優れもの。
クラスタなどの機能は専用の機構を利用しているため評価できませんが、ハードウェアに依存しないストレージの機能や Analytics などのほぼ全ての機能評価することが可能という素晴らしい Simulator です。

Oracle ZFS Storage Simulator
http://www.oracle.com/technetwork/server-storage/sun-unified-storage/downloads/sun-simulator-1368816.html

これを利用することで、RESTfull API の動作確認はできるはず。
また、ZFS Storage Appliance の RESTfull API については、下記のマニュアルに情報が記載されています。
ストレージのほとんどの操作が API 経由で可能なようです。

Oracle® ZFS Storage Appliance RESTful Application Programming Interface
http://docs.oracle.com/cd/E51475_01/html/E52433/index.html

早速、Simulator をダウンロードし、VBox 上で起動。
デフォルトでは REST サービスが disable になっていますので、これを enable にします。
手っ取り早く確認したいので、VIrtualBox のポートフォワーディング機能を使い、Simulator VM の Port: 215 をホスト OS の Port: 10215 にマッピングし、https://localhost:10215 経由でのアクセスしています。

さっそく、curl を使ってアクセスしてみます。
これは、/api/system/v1/version から ZFS Storage Appliance 環境のバージョン情報を取り出したものです。


$ curl --user root:password -k -i https://localhost:10215/api/system/v1/version

HTTP/1.1 200 OK

Date: Sun, 10 Aug 2014 00:07:36 GMT

Server: TwistedWeb/10.1.0

Content-Length: 814

X-Zfssa-Version: ak/generic@2013.06.05.2.0,1-1.10

X-Zfssa-Api-Version: 1.0

X-Zfssa-System-Api: 1.0

Content-Type: application/json; charset=utf-8

{"version":

{"href": "/api/system/v1/version",

"nodename": "unknown",

"mkt_product": "Oracle ZFS Storage VirtualBox",

"product": "Sun Storage 7000",

"version": "2013.06.05.2.0,1-1.10",

"install_time": "Mon Jun 23 2014 09:33:16 GMT+0000 (UTC)",

"update_time": "Mon Jun 23 2014 09:33:16 GMT+0000 (UTC)",

"boot_time": "Sat Aug 09 2014 23:24:29 GMT+0000 (UTC)",

"asn": "de217be8-104f-6106-db7f-9c9f7789faf6",

"csn": "unknown",

"part": "Oracle 000-0000",

"urn": "urn:uuid:11da4018-a79e-11dd-a2a2-080020a9ed93",

"navname": "aksh 1.0",

"navagent": "aksh",

"http": "Apache/2.2.24 (Unix)",

"ssl": "OpenSSL 1.0.0k 5 Feb 2013",

"ak_version": "ak/SUNW,ankimo@2013.06.05.2.0,1-1.10",

"os_version": "SunOS 5.11 ak/generic@2013.06.05.2.0,1-1.10 64-bit",

"bios_version": "innotek GmbH VirtualBox 12/01/2006",

"sp_version": "-"

}}

もう少し出力を見やすく整形できればと調べたところ、python 2.6 から含まれる json.tool module を利用することで、ぐっと見易くなりました。
curl の -i オプションで出力される protocol header がふくまれると解析に失敗してしまいますので、-i オプションを外し、パイプで python -m json.tool に渡してあげるおとで、先ほどの出力よりもさらに見易くなった結果を手に入れることができます。

$ curl --user root:password -k https://localhost:10215/api/system/v1/version | python -m json.tool

  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current

                                 Dload  Upload   Total   Spent    Left  Speed

100   814  100   814    0     0    507      0  0:00:01  0:00:01 --:--:--   507

{

    "version": {

        "ak_version": "ak/SUNW,ankimo@2013.06.05.2.0,1-1.10",

        "asn": "de217be8-104f-6106-db7f-9c9f7789faf6",

        "bios_version": "innotek GmbH VirtualBox 12/01/2006",

        "boot_time": "Sat Aug 09 2014 23:24:29 GMT+0000 (UTC)",

        "csn": "unknown",

        "href": "/api/system/v1/version",

        "http": "Apache/2.2.24 (Unix)",

        "install_time": "Mon Jun 23 2014 09:33:16 GMT+0000 (UTC)",

        "mkt_product": "Oracle ZFS Storage VirtualBox",

        "navagent": "aksh",

        "navname": "aksh 1.0",

        "nodename": "unknown",

        "os_version": "SunOS 5.11 ak/generic@2013.06.05.2.0,1-1.10 64-bit",

        "part": "Oracle 000-0000",

        "product": "Sun Storage 7000",

        "sp_version": "-",

        "ssl": "OpenSSL 1.0.0k 5 Feb 2013",

        "update_time": "Mon Jun 23 2014 09:33:16 GMT+0000 (UTC)",

        "urn": "urn:uuid:11da4018-a79e-11dd-a2a2-080020a9ed93",

        "version": "2013.06.05.2.0,1-1.10"

    }

}

さらにさらに、jq なる json processor が色付けしてくれたり整形してくれたり色々加工できるということで試してみた。

jq
http://stedolan.github.io/jq/

今回は出力を得るのは Mac OS X 環境となりますので、Mac OS X binary を利用してみました。
バージョン情報の他、pool の情報や、プロジェクトの情報も取ってみましたがキレイに出力されますね。
python -m json.tool と jq があることを覚えておくと良いようです。

$ curl --user root:password -k https://localhost:10215/api/system/v1/version | ~/opt/bin/jq '.'

  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current

                                 Dload  Upload   Total   Spent    Left  Speed

100   814  100   814    0     0    548      0  0:00:01  0:00:01 --:--:--   548

{

"version": {

"href": "/api/system/v1/version",

"nodename": "unknown",

"mkt_product": "Oracle ZFS Storage VirtualBox",

"product": "Sun Storage 7000",

"version": "2013.06.05.2.0,1-1.10",

"install_time": "Mon Jun 23 2014 09:33:16 GMT+0000 (UTC)",

"update_time": "Mon Jun 23 2014 09:33:16 GMT+0000 (UTC)",

"boot_time": "Sat Aug 09 2014 23:24:29 GMT+0000 (UTC)",

"asn": "de217be8-104f-6106-db7f-9c9f7789faf6",

"csn": "unknown",

"part": "Oracle 000-0000",

"urn": "urn:uuid:11da4018-a79e-11dd-a2a2-080020a9ed93",

"navname": "aksh 1.0",

"navagent": "aksh",

"http": "Apache/2.2.24 (Unix)",

"ssl": "OpenSSL 1.0.0k 5 Feb 2013",

"ak_version": "ak/SUNW,ankimo@2013.06.05.2.0,1-1.10",

"os_version": "SunOS 5.11 ak/generic@2013.06.05.2.0,1-1.10 64-bit",

"bios_version": "innotek GmbH VirtualBox 12/01/2006",

"sp_version": "-"

  }

}

$ curl --user root:password -k https://localhost:10215/api/storage/v1/pools/vboxpool | ~/opt/bin/jq '.'

  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current

                                 Dload  Upload   Total   Spent    Left  Speed

100  2308  100  2308    0     0  22349      0 --:--:-- --:--:-- --:--:-- 22407

{

"pool": {

"status": "online",

"profile": "stripe",

"errors": [],

"scrub": {

"errors": 0,

"repaired": 0,

"complete": true

    },

"name": "vboxpool",

"usage": {

"available": 80026824704,

"total": 80027320320,

"dedupratio": 100,

"used": 495616

    },

"peer": "00000000-0000-0000-0000-000000000000",

"vdev": [

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 1"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 2"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 3"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 4"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 5"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 6"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 7"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 8"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 9"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 10"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 11"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 12"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 13"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 14"

      },

      {

"size": 5368709120,

"state": "healthy",

"chassis": "00a62383-eb97-c48c-f88b-ea9afe7b89a5",

"type": "disk",

"label": "HDD 15"

      }

    ],

"owner": "unknown",

"asn": "de217be8-104f-6106-db7f-9c9f7789faf6"

  }

}

$ curl --user root:password -k https://localhost:10215/api/storage/v1/pools/vboxpool/projects | ~/opt/bin/jq '.'

  % Total    % Received % Xferd  Average Speed   Time    Time     Time  Current

                                 Dload  Upload   Total   Spent    Left  Speed

100  1765    0  1765    0     0  39935      0 --:--:-- --:--:-- --:--:-- 40113

{

"projects": [

    {

"default_volblocksize": 8192,

"logbias": "latency",

"creation": "20140809T23:28:30",

"nodestroy": false,

"dedup": false,

"sharenfs": "on",

"href": "/api/storage/v1/pools/vboxpool/projects/default",

"sharesmb": "off",

"default_permissions": "700",

"mountpoint": "/export",

"snaplabel": "",

"id": "f4c572c1-20d9-400a-0000-000000000000",

"readonly": false,

"space_data": 31744,

"compression": "off",

"sharetftp": "",

"source": {

"logbias": "inherited",

"dedup": "inherited",

"sharenfs": "local",

"sharesmb": "local",

"mountpoint": "local",

"rrsrc_actions": "local",

"compression": "inherited",

"sharetftp": "local",

"snapdir": "inherited",

"sharedav": "local",

"copies": "inherited",

"aclinherit": "inherited",

"shareftp": "local",

"readonly": "inherited",

"secondarycache": "inherited",

"maxblocksize": "inherited",

"exported": "local",

"vscan": "inherited",

"reservation": "local",

"atime": "inherited",

"recordsize": "inherited",

"checksum": "inherited",

"sharesftp": "local",

"nbmand": "inherited",

"aclmode": "inherited",

"rstchown": "inherited"

      },

"default_sparse": false,

"snapdir": "hidden",

"aclmode": "discard",

"copies": 1,

"aclinherit": "restricted",

"compressratio": 100,

"shareftp": "",

"canonical_name": "vboxpool/local/default",

"recordsize": 131072,

"space_available": 78776401920,

"secondarycache": "all",

"space_snapshots": 0,

"space_unused_res": 0,

"quota": 0,

"maxblocksize": 1048576,

"exported": true,

"default_volsize": 0,

"vscan": false,

"reservation": 0,

"atime": true,

"pool": "vboxpool",

"default_user": "nobody",

"space_unused_res_shares": 0,

"name": "default",

"checksum": "fletcher4",

"space_total": 31744,

"default_group": "other",

"sharesftp": "",

"nbmand": false,

"sharedav": "",

"rstchown": true

    }

  ]

}

curl を使った参照のみによる簡単な RESTfull API の動作確認でしたが、Oracle ZFS Storage Appliance も OS 8.2 によりおもしろくなってきました。

Oracle ZFS Storage Appliance は、この RESTfull API を利用することで、OpenStack のブロックストレージリソース (Cinder) として利用することができるようになっています。(Cinder Host に ZFS Storage Appliance 用の driver を別途インストールが必要)
このへんも整理できたらまとめてみたいと思います。

木曜日 8 07, 2014

TCP トラフィックの輻輳制御の実装について (Congestion Control)

Solaris の TCP 輻輳制御の実装 (Congestion Control) が、Solaris 10 から変更になっていました汗

Solaris 10 までは、RFC 2581 に準拠したアルゴリズムを採用し固定でしたが、Solaris 11 からは、このアルゴリズムの実装を Pluggable にし複数の実装を提供できる Pluggable TCP Congestion Control と呼ばれる実装に変更されています。 Solaris 11 以降では、NewReno をデフォルトのアルゴリズムとし、New Reno の改良版である High Speed, Linux 2.6 以降で利用される CUBIC, Round-Trip Time による輻輳管理を行う Vefas の 4 つのアルゴリズムをサポートし、ipadm set-prop コマンドで変更でます。


 バージョン  アルゴリズム
 Solaris 10 まで  RFC 2581 準拠のアルゴリズム (ハードコード)
 Solaris 11 以降  Pluggable TCP Congestion Control 機能によりアルゴリズムを plugin で実装し選定可能に
newreno デフォルトアルゴリズム。制御メカニズムには、送信側の輻輳ウィンドウ、スロースタート、および輻輳回避があります
highspeed 高速ネットワーク用のもっとも有名かつシンプルな NewReno の修正版の 1 つ
cubic Linux 2.6 の現在のデフォルトアルゴリズム。輻輳回避フェーズを線形的なウィンドウ増加から cubic 関数に変更します
vegas 実際のパケットロスを発生させずに輻輳を予測しようとする典型的な遅延ベースのアルゴリズム

 

確認方法は、ipadm show-prop で出力される下記のプロパティを参照してください。 変更は、ipadm set-prop -p cong_default=cube tcp のように実行します。 詳細は、下記のマニュアルで。 Oracle Solaris 11.1 での固定ネットワーク構成を使用したシステムの接続 > トラフィックの輻輳制御の実装 http://docs.oracle.com/cd/E37932_01/html/E36462/ggtvn.html#gkkdv
TCP: 
# ipadm show-prop -p cong_default tcp
PROTO PROPERTY              PERM CURRENT      PERSISTENT   DEFAULT      POSSIBLE
tcp   cong_default          rw   newreno      --           newreno      newreno,cubic,
                                                                        highspeed,vegas
# ipadm show-prop -p cong_enabled tcp
PROTO PROPERTY              PERM CURRENT      PERSISTENT   DEFAULT      POSSIBLE
tcp   cong_enabled          rw   newreno,cubic, newreno,cubic, newreno  newreno,cubic,
                                 highspeed,   highspeed,                highspeed,vegas
                                 vegas        vegas

SCTP (Stream Control Transmission Protocol) :
root@havana-mgt01:~# ipadm show-prop -p cong_default sctp
PROTO PROPERTY              PERM CURRENT      PERSISTENT   DEFAULT      POSSIBLE
sctp  cong_default          rw   newreno      --           newreno      newreno,cubic,
                                                                        highspeed,vegas
root@havana-mgt01:~# ipadm show-prop -p cong_enabled sctp
PROTO PROPERTY              PERM CURRENT      PERSISTENT   DEFAULT      POSSIBLE
sctp  cong_enabled          rw   newreno,cubic, newreno,cubic, newreno  newreno,cubic,
                                 highspeed,   highspeed,                highspeed,vegas
                                 vegas        vegas                     


金曜日 8 01, 2014

Oracle Solaris 11.2 と Oracle Solaris Cluster 4.2 がリリース!

本日、日本時間 8/1 に Oracle Solaris 11.2 と Oracle Solaris 4.2 がリリースとなりました。アナウンスではないですよ。

Solaris 11.1 から .1 繰り上がっただけですが、すでに Open Beta 時からお知らせしているように、OpenStack (Open Beta は Grizzly でしたが、Havana ベースとなりました), Krenel Zones, Elastic Virtual Switch, Unified Archive など様々な新機能が盛り込まれています。
そして、これらの新機能を使うために、アプリケーションの修正は必要ありません。

また、Oracle Solaris に高可用性と DR 機能を提供する Oracle Solaris Cluster 4.2 も合わせてリリースされました。
Solaris Cluster 4.2 の HA Zone では新しい Kernel Zone をサポート。Solaris がサポートする仮想化機能に高可用性を付加します。
更に、ブラウザベースの管理インターフェースを新たに提供。また、Solaris 11.2 の統合アーカイブ機能と連携することで、物理クラスタ環境や仮想クラスタ環境を迅速にデプロイ可能です。

 ちなみに、さとかず & いとかづが作成している OpenStack on Solaris 環境を絵にしてみるとこうなります。奥が深い。
初物なので色々と試行錯誤していますが、新機能との連携を理解できると中々楽しいです。


金曜日 2 14, 2014

「Oracle Solaris の将来リリースで計画されている End of Feature (EOF)」の日本語翻訳版を公開

US OTN で提供している Oracle Solaris に関連する End of Feature Notices コンテンツの翻訳版を提供開始いたしました。

本情報は、Oracle Solaris リリースノートにも記載されている内容をカバーするものとなり、加えて新しい情報を追加更新していきます。

Oracle Solaris の将来のリリースで計画されている End of Feature (EOF)


月曜日 1 21, 2013

Solaris Zones で GDM (GNOME Display Manager) を動かす Xvnc 編

Xephyr よりVNC だろ?と言われ、言い返せなかったので Xvnc について書き加えて行きたいと思います。

前回のエントリとなるSolaris Zones で GDM (GNOME Display Manager) を動かす」ですが、この設定を完了後、Xvnc の SMF サービスを有効にするだけです。
Xvnc も SMF サービス管理されていますが、こちらは inetd にてコントロールされるサービスで、標準では disable となっています。
Xvnc を有効にするには、下記のコマンドを実行します。

# svcadm enable xvnc-inetd

# svcs -a | grep xvnc
online 11:16:56 svc:/application/x11/xvnc-inetd:default (online になったことを確認します)

サービスが開始されるので、後は VNC クライアントから接続するだけです。
ちなみに、inetd コントロールされるので、inetadm の出番です。

 root@solaris:~#   inetadm -l xvnc-inetd
SCOPE    NAME=VALUE
         name="vnc-server"
         endpoint_type="stream"
         proto="tcp"
         isrpc=FALSE
         wait=FALSE
         exec="/usr/bin/Xvnc -inetd -query localhost -once securitytypes=none"
         user="noaccess"
default  bind_addr=""
default  bind_fail_max=-1
default  bind_fail_interval=-1
default  max_con_rate=-1
default  max_copies=-1
default  con_rate_offline=-1
default  failrate_cnt=40
default  failrate_interval=60
default  inherit_env=TRUE
default  tcp_trace=FALSE
default  tcp_wrappers=FALSE
default  connection_backlog=10
default  tcp_keepalive=FALSE

いえ、、、特になにかしたかったわけでもなく・・・
接続にパスワードを用いたり、Xvnc のオプションを変更する場合は、exec プロパティを書き換えます。
たとえば、デスクトップのデフォルトの大きさを 1280x800 に指定する(大抵の場合は、クライアントから操作できるが、できないクライアントもあります)には、下記のように実行します。
inetd からキックされるサービスなので、特にリフレッシュも必要ありません。(svccfg でも変更できます)

# inetadm -m xvnc-inetd exec="/usr/bin/Xvnc -inetd -query localhost -once securitytypes=none -geometry 1280x800"

また、default では、VNC クライアントを終了させると同時にセッションも終了し、毎回ログインのしなおしとなります。
クライアントとのコネクションが切れても、セッションを継続動作させるには、下記を追加で実行します。
なんちゃって SunRay 環境っぽくなります。

# inetadm -m xvnc-inetd wait=true
# inetadm -m xvnc-inetd exec="/usr/bin/Xvnc -inetd -query localhost -once securitytypes=none -geometry 1280x800 -DisconnectClients=no"

Mac OS X 10.6.8 の画面共有アプリケーションにはクライアント機能があり、FInder に統合されているのですがうまく接続することができず、TightVNC Java Viewer version 2.6.2
また、Solaris 11.1 の TigerVNC クライアント(/usr/bin/vncviewer) 問題なく接続できました。

のあたりの設定も、カスタマイズしはじめるとキリがありません
というわけで、
Xephyr に続き VNCクライアントでの接続方法の紹介でした。

後日追加:使い方に注意点があるので、気がついたら追加してゆきます。

  • コピー & ペーストができない
    Solaris 側で、/usr/bin/vncconfig を実行してください。このプログラムが起動中は、コピー & ペースト可能です。
    正しく動作することを確認できたら、バックグラウンドで動作させておきます。
  • UltraVNC クライアントから接続すると、"The Server running as Application" と表示されてしまう。
    とりあえず、既存セッションへの接続の場合は、クライアント側で接続速度を低いものにしてみる
  • Mac OS X 10.6.8 の画面共有クライアントから接続できなかったのは、Xvnc 側でパスワードを設定していないためでした。パスワーファイルを設定し認証を行うようにすることで問題なくアクセスできます。

日曜日 1 20, 2013

Solaris Zones で GDM (GNOME Display Manager) を動かす


今回は、Solaris 11.1 の非大域ゾーン(non-global zone)の中で、GDM を動かす。そして、Xephyr (Xnest などの XDMCP クライアント) から非大域ゾーンのデスクトップ環境を利用するというお話です。

なんで、今更こんなことを書くかというと、実は GDM は非大域ゾーンの中で動作させることができません。
Solaris 10 では CDE のコンポーネントである dtlogin を非大域ゾーンで利用する方法が提供されていましたが、Solaris 11 からは dtlogin が提供されなくなりました。GDM も使えないため、非大域ゾーンにデスクトップ環境を構成し利用することが難しい状態となっています。

GDM を動かすことができない理由ですが、まず、GDM は Solaris が誇る予測的自己修復機能を構成する SMF で管理されるサービスとして提供されています。GDM の SMF サービスは svc:/application/graphical-login/gdm:default となりますが、この SMF サービスは、svc:/system/hal と svc:/system/consolekit, svc:/system/dbus に依存関係を持っており、この 3 つのサービスが正常に動作している必要があります。(他のサービスにも依存関係を持っていますが、今回のお話ではこの 3 つが重要)

しかし、非大域ゾーンでは、次の理由により GDM は SMF サービスとして offline となります。

  • svc:/system/hal は、non-global zone でサービスとして提供されない(存在しない)
  • svc:/system/dbus は、non-global zones では disable になるように設定されている
  • svc:/system/consolekit は、dbus に依存している。dbus は動作していないので、consolekit も動作しない
おぅ・・・思った以上にクリティカルです。

# svcs -l gdm
fmri         svc:/application/graphical-login/gdm:default
name         GNOME Display Manager
enabled      true
state        offline
next_state   none
state_time   Sat Jan 19 22:27:28 2013
restarter    svc:/system/svc/restarter:default
manifest     /lib/svc/manifest/application/graphical-login/gdm.xml
manifest     /etc/svc/profile/generic.xml
manifest     /lib/svc/manifest/application/opengl/ogl-select.xml
manifest     /lib/svc/manifest/application/desktop-cache/gconf-cache.xml
manifest     /lib/svc/manifest/application/desktop-cache/pixbuf-loaders-installer.xml
manifest     /lib/svc/manifest/application/desktop-cache/icon-cache.xml
manifest     /lib/svc/manifest/application/desktop-cache/desktop-mime-cache.xml
manifest     /lib/svc/manifest/application/desktop-cache/input-method-cache.xml
manifest     /lib/svc/manifest/application/desktop-cache/mime-types-cache.xml
dependency   optional_all/none svc:/application/opengl/ogl-select (online)
dependency   require_all/none svc:/system/filesystem/local (online)
dependency   require_all/error svc:/milestone/multi-user:default (online)
dependency   require_all/none svc:/milestone/self-assembly-complete (online)
dependency   require_all/none svc:/application/font/fc-cache (online)
dependency   require_all/none svc:/system/utmp (online)
dependency   require_all/none svc:/system/hal ()
dependency   require_all/none svc:/system/dbus (disabled)
dependency   require_all/none svc:/system/consolekit (offline)

dependency   optional_all/none svc:/application/desktop-cache/gconf-cache (online)
dependency   optional_all/none svc:/application/desktop-cache/pixbuf-loaders-installer (online)
dependency   optional_all/none svc:/application/desktop-cache/icon-cache (online)
dependency   optional_all/none svc:/application/desktop-cache/desktop-mime-cache (online)
dependency   optional_all/none svc:/application/desktop-cache/input-method-cache (online)
dependency   optional_all/none svc:/application/desktop-cache/mime-types-cache (online)

というわけで、何らかの意図があり、故意に動作させないようになっているような気がしないでもないです。。。
ちなみに、依存関係については、svcs -l で確認できます。



ここからサポートされる手順ではなく利用者の自己責任となります。
SMF のマニフェストを書き換えたりしますので、動作になんらかの影響を与える可能性がありますのでご注意ください。この点を理解していいただけるという前提で、動作させる手順をご紹介いたします。(サポートされる手順でもなんでもなく、欲望を満たせるなら手段は問わない手順となります)

1. 非大域ゾーンの作成について

非大域ゾーンの作成時点では、何か特別なことをする必要はありません。
ここでは、非大域ゾーンを作成してたからデスクトップ環境をインストールする作業(パッケージのインストール)をゾーン作成時に行ってしまう方法をご紹介します。
/usr/share/auto_install/manifest/zone_default.xml のコピーを作成し、下記のようにゾーンにインストールされるグループパッケージ(default は solaris-small-server)を solaris-desktop に書き換えます。 

*** zone_default.xml2012-09-20 05:10:44.000000000 +0900
--- /export/home/kazus/zone_default.xml2013-01-19 16:55:13.001233748 +0900
***************
*** 67,73 ****
                  </image>
              </destination>
              <software_data action="install">
! <name>pkg:/group/system/solaris-small-server</name>
              </software_data>
          </software>
      </ai_instance>
--- 67,73 ----
                  </image>
              </destination>
              <software_data action="install">
! <name>pkg:/group/system/solaris-desktop</name>
              </software_data>
          </software>
      </ai_instance>

書き換えた  zone_default.xml を下記のように zoneadm コマンドに渡すことで solaris-desktop グループパッケージをインストールした非大域ゾーンを作成することができます。
下記は、修正した zone_default.xml を使い、ゾーンをインストールした実行例です。


# zoneadm -z gdm-test install -m `pwd`/zone_default.xml

The following ZFS file system(s) have been created:
    micropool/zones/gdm-test02
Progress being logged to /var/log/zones/zoneadm.20130119T131318Z.gdm-test02.install
       Image: Preparing at /micropool/zones/gdm-test02/root.

 AI Manifest: /tmp/manifest.xml.48aGch
  SC Profile: /usr/share/auto_install/sc_profiles/enable_sci.xml
    Zonename: gdm-test02
Installation: Starting ...

              Creating IPS image
Startup linked: 1/1 done
              Installing packages from:
                  solaris
                      origin:  http://localhost:1008/solaris/32e0c0654802140a8e3b152a1a6bbabda1816a3a/
              Please review the licenses for the following packages post-install:
                runtime/java/jre-7                       (automatically accepted)
              Package licenses may be viewed using the command:
                pkg info --license <pkg_fmri>
DOWNLOAD                                PKGS         FILES    XFER (MB)   SPEED
Completed                            839/839 115085/115085    1051/1051  3.6M/s

PHASE                                          ITEMS
Installing new actions                   168817/168817
Updating package state database                 Done
Updating image state                            Done
Creating fast lookup database                   Done
Installation: Succeeded

        Note: Man pages can be obtained by installing pkg:/system/manual

 done.

        Done: Installation completed in 656.696 seconds.


  Next Steps: Boot the zone, then log into the zone console (zlogin -C)

              to complete the configuration process.

Log saved in non-global zone as /micropool/zones/gdm-test02/root/var/log/zones/zoneadm.20130119T131318Z.gdm-test02.install

solaris-desktop は、solaris-small-server より多くのパッケージが導入されるため、ディスク容量やインストール時間を必要とします。
ゾーン作成後は、起動と初期設定などを済ませておきます。

2. svc:/system/dbus のメソッドファイルを修正

ここからの作業は、すべて非大域ゾーンでの作業となります。
続いて、svc:/system/dbus をサービスとして動作するようにメソッドファイルとなる /lib/svc/method/svc-dbus を修正します。
非大域ゾーンではサービスを disable にする処理をコメントに変更するのが修正内容となります。

*** /usr/tmp/svc-dbus.orig Sat Jan 19 17:48:22 2013
--- /lib/svc/method/svc-dbus Sat Jan 19 17:49:02 2013
***************
*** 20,31 ****
        /usr/bin/dbus-uuidgen --ensure
  fi

! if smf_is_nonglobalzone; then
! /usr/sbin/svcadm disable -t svc:/system/dbus
! echo "dbus-daemon cannot be run in non-global zones"
! sleep 5 &
! exit $SMF_EXIT_OK
! fi

  case "$1" in
  'start')
--- 20,31 ----
        /usr/bin/dbus-uuidgen --ensure
  fi

! #if smf_is_nonglobalzone; then
! # /usr/sbin/svcadm disable -t svc:/system/dbus
! # echo "dbus-daemon cannot be run in non-global zones"
! # sleep 5 &
! # exit $SMF_EXIT_OK
! #fi

  case "$1" in
  'start')



 3. /lib/svc/manifest/application/graphical-login/gdm.xml の修正

gdm のサービスとなる svc:/application/graphical-login/gdm:default を構成するマニフェストを修正します。
修正箇所としては、svc:/system/hal と svc:/system/consolekit への依存関係を定義している部分となります。この定義をコメントとすることで、依存関係なんてはじめから無かったんだという状態にします。
gdm のマニフェストは、/lib/svc/manifest/application/graphical-login/gdm.xml となり、このファイルのバックアップを取り直接書き換えます。

*** /usr/tmp/gdm.xml.orig       Sat Jan 19 17:40:35 2013
--- /lib/svc/manifest/application/graphical-login/gdm.xml       Sat Jan 19 17:41:06 2013
***************
*** 53,58 ****
--- 53,59 ----
                <service_fmri value='svc:/system/utmp'/>
        </dependency>

+ <!--
        <dependency
            name='hal'
            grouping='require_all'
***************
*** 60,65 ****
--- 61,67 ----
            type='service'>
                <service_fmri value='svc:/system/hal' />
        </dependency>
+ -->

          <dependency
              name='dbus'
***************
*** 69,74 ****
--- 71,77 ----
                  <service_fmri value='svc:/system/dbus' />
          </dependency>

+ <!--
        <dependency
            name='consolekit'
            grouping='require_all'
***************
*** 76,81 ****
--- 79,85 ----
            type='service'>
                <service_fmri value='svc:/system/consolekit'/>
        </dependency>
+ -->

        <exec_method
            type='method'

4. /etc/gdm/custome.conf の [xdmc] セクションに下記を追加

GDM への XDMCP 接続を許可する設定となります。
/etc/gdm/custom.conf の [xdmcp] セクションに、Enable=true を追加します

[xdmcp]
Enable=true

5. 非大域ゾーンのリブートと Xephyr からの接続

非大域ゾーンをリブートすることで、修正したマニフェストやメソッドが反映され GDM に接続可能になります。
Xephyr からの接続は、下記のようにリモートホストから実行することで可能です。

 # /usr/bin/Xephyr :1 -query 192.168.100.24 -screen 1280x800

6. その他

Mac OS X 10.6.8 (Snow Leopard) の Xephyr から接続した際、GDM からのログイン時は特におかしなところはないのですが、ログイン後のキーマップが崩壊している現象に遭遇しました。
利用したのは、XQuartz 2.7.4 です。
同様の現象が発生する場合は、現象が発生するアカウントにてssh などを使い非大域ゾーンにログインし、下記コマンドを実行してから Xephyr から再ログインしてください。

$ /usr/bin/gconftool-2 -s /apps/gnome_settings_daemon/plugins/keyboard/active --type boole false

Solaris 11.1 の Xephyr では、この設定は必要ありませんでした。
お楽しみください。

では、Oracle Database 11g R2 を Solaris Zones へインストールする作業に戻ります。

金曜日 11 16, 2012

Oracle Solaris 11.1 日本語マニュアルが公開!と小ネタ

Solaris 11.1 ファンの皆様!お待たせいたしまた。
Oracle Solaris 11.1 の日本語マニュアルが公開されました。
Solaris 11 11/11 から 11.1 といっても、新しい機能等もたくさん追加されていますので、ぜひ参考にして頂きたく。


また、少しだけうけた Solaris 11.1 の小ネタをご紹介します。

  • ipadm コマンドと dladm コマンドをオプションなしで実行するとヘルプが出力されなくなった!

    dladm コマンドと ipadm コマンド実行時に、デフォルトの動作モードが割り当てられました。
    dladm では、オプションなしで実行すると dladm show-link と同じ結果が。
    ipadm では、show-if と show-addr を組み合わせたわかりやすい出力結果を得ることができます。

  • /usr/bin/ps コマンドが /usr/ucb/ps スタイルのオプションが実装
    /usr/bin/ps コマンドに - (ハイフン) なしでオプションを渡すと、/usr/ucb/ps の動作をエミュレートした出力となります。
    特に将来のリリースにおいて、/usr/ucb/ps 含む UCB 互換パッケージの廃止がアナウンスされていますので、これを機会に /usr/ucb/ps を使っているスクリプトなどを洗い出し、/usr/bin/ps の USB 互換モードで対応可能か精査しておくと良いかと思います。


    お試しアレ。
  • 木曜日 11 01, 2012

    Oracle Solaris 11.1 日本語ページとダウンロードページ公開!

    Oracle Solaris 11.1 リリース時には、OTN Japan Blog に負けてしまいましたが、本日、Oracle Solaris 11.1 の日本語ページとダウンロードページが配備されましたので、お知らせいたします。
    ただ、日本語ページが公開されたわけではありません。
    この流れで、日本語版の Waht's New も公開です!
    まずは、こちらのドキュメントから新機能を拾いつつ、Oracle Solaris 11.1 Information Library Released: 2012-10-25 のマニュアルを。
    ちなみに、google せんせーに聞くときには、site:docs.oracle.com/cd/E26502_01/ を入れてから keyword を入れると捗ります。
    こちらの blog でも情報を小出しにしていきます!

    ちなみに、直近ではこのような記事もありますので、併せて読みあさってみてくださいね。

    ちなみにリンク先の内容は、時間をかけて日本語化して行きますのでお待ちください!

    日曜日 10 28, 2012

    Oracle Solaris 11.1 がリリースされました

    Oracle OpenWorld 2012 にてアナウンスされた Oracle Solaris 11.1 が、無事リリースされました。

    Oracle Solaris 11.1 では、エンタープライズアプリケーションにおける No.1 UNIX 環境はもちろん、クラウド基盤の構築、オラクルが提供する様々なソフトウェアに最適な環境というメッセージはそのままに、更なる機能強化がなされています。
    ダウンロード等については、下記 OTN Blog を参照ください。


    また、ドキュメントも機能毎に細分化されていますが、ついにパッケージリストが纏められたドキュメントも追加されています。こちらのドキュメントは、グループパッケージである group/system/solaris-large-server, group/system/solaris-small-server, group/system/solaris-desktop にどのようなパッケージが含まれるかを纏めたものとなりますのでご活用ください。


    また、ご利用前には必ず下記のリリースノートの一読をお願いいたします。重要な情報が満載です。
    現時点では、英語版のみの提供となります。
    日本語版につきましては、準備中となりますのでもうしばらくおまちください。。。

    では、みなさま、お楽しみください
    About

    Search

    Archives
    « 8月 2015
          
    1
    2
    3
    4
    5
    6
    7
    8
    9
    10
    11
    12
    13
    14
    15
    16
    17
    18
    19
    20
    21
    22
    23
    24
    25
    26
    27
    28
    29
    30
    31
         
    今日