nkjmkzk.net

powered by Kazuki Nakajima

Archive for 11月, 2010

あなたもORACLEにJOINしませんか。

表結合の話ではありません。日本オラクルでは現在、志を共にするエンジニアを探しています。

この場では特にデータベースやインフラまわりの技術、あるいは統合運用管理にかかわるエンジニアについて募集概要をお知らせしたいと思います。

製品/テクノロジー的にはOracle Database, Automatic Storage Management(Grid Infrastructure), Oracle VM, Oracle Linux, Oracle Solaris, Enterprise Manager, Application Testing Suiteといった製品群についてとことん深く、あるいは幅広く見識をもってエンジニアリングでご活躍いただくことになります。

そしてポジションは多岐に渡ります。

製品知識を徹底的に鍛え、日本でその製品のエンジニアリングに責任をもち、US本社と緊密に連携してレディネスを高め、各種セミナーやWeb、書籍での情報提供を行ったりお客様の検証を支援するような製品に軸足を置いた製品エキスパートのポジション。

はたまたOracleが誇る広大な製品機能群から宝石を発掘してNew & Hotな構成を編み出し、その構成案のフィジビリティや性能をストイックに検証し、そのアウトプットをグローバルに展開するといった開拓者的エンジニアのポジション。

あるいはエンドユーザ様に足繁く通い、豊富な製品知識と経験をもったコンサルタントとしてお客様の要件を見極め、最も費用対効果の高いシステム構成を組み上げてプレゼンテーションを行い、営業、お客様をはじめ社内の様々な部門のエキスパートと連携してプロジェクトをWin-Winに導くセールスコンサルタントのポジション。

そして僕自身、日本オラクルのこの組織の一番の魅力だと感じるのは「自由」です。

どこどこの部門の人はこれしかやっちゃダメ、とかいう雰囲気は一切ありません。サポート、セールス、マーケティング、コンサルティング、皆部署の垣根を越えてゴールに向かって柔軟に連携して業務を遂行しています。

また、あらかじめ決められた業務をただ遂行するようも仕事はありません。アイデアと情熱があれば最大限社員の意思を尊重する空気があり、そのためのバックアップが提供されます。年齢性別国籍は一切関係ありません。マネジメントは現場の一人一人のアクティビティに常に関心を持っており、風通しの良さは異常です。

このような日本オラクルという会社、ポジションにご興味をもっていただいた方は是非ご連絡ください。

弊社人事に直接コンタクト/エントリーいただいても結構ですし、僕にご連絡いただいてもOKです。業務内容やオフィスの雰囲気等についてもっと詳しい話を聞きたい、ということがあればオンラインまたはオフラインでもお伺いさせていただきます。どうぞお気軽に : )

ご連絡はこちらまで。nkjm.kzk@gmail.com

without comments

Written by 中嶋 一樹

11月 30th, 2010 at 8:47 am

Posted in Uncategorized

プレゼンとスライドと資料

恐らく皆さん、プレゼンを作る/演じる際には各々自分なりのノウハウやポリシーがあるかと思います。

僕もいろいろあるのですが、その1つに「線」を意識するというものがあります。なんとか太子を除く普通の人間は話を聴く際にパラレルには理解でません。フォーカスを集めるには常に一本の線を追うように物語を語る必要があると考えています。

そしてその線のメインストリームはプレゼンターの話でしょう。プレゼンターの話を聴きにくる場、それがセミナーでありプレゼンです。線には誘導性があり、計算された美しい線は短時間での印象づけや腹落ちを実現します。それこそが資料を置いてきて読んでいただくことと、能動的で誘導的なプレゼンを行うことの差であり、意義の違いだと思います。

僕がいつも見ただけでは謎な資料(スライド)を作っているのは、スライドはメインストリームの話をよりたやすくオーディエンスが理解するためのヘルパーだと考えているからです。人は話/文章を理解するとき、頭の中で映像化を行って咀嚼します。したがって話している文章をスライド上で映像にしてみせることで、オーディエンスは自分が聞いて理解したものが合っているかどうか確認したり、文章では伝わりにくい相関関係を捉えることができると思います。

なのでプレゼンのスライドは視覚化が命。そこに文章は必要ありません。文章は話せますから。文章があるとオーディエンスは本能的にまず読もうとします。その間話は聞いているようで聞けていません。これではメインストリームにフォーカスを集めることができません。集中力が文字通り脱線します。

逆にスライドではなく「配布資料」は極限まで一枚のスライドに情報を詰め込んだリファレンスであったりリマインダーであったりします。後々話しを思い出して整理するためにこういうものも必要でしょう。資料は面のアプローチ、プレゼンは線のアプローチ。しかし面に様々な情報を並行表記した資料はプレゼンでは使えない。情報を2つ以上同時に出した時点でフォーカスがぶれます。

面倒ですが最高のパフォーマンスを出そうとすればこれらは別々に作成する他ありません。なので特に最近、プレゼンスライドに加えて一枚でわかる凝縮版配布用資料を対で作成するようにしています(以前は配布はあきらめていたましたが、もったいないかな、と思い)。

しばしばプレゼンのレビューということで資料を共有いただくことがありますが、僕が資料をもらってレビューできるのは絵がかわいいかどうかくらいです。資料をみたら内容がわかるプレゼンであればプレゼンしないで資料を配れば良いと思いますし、僕が思うプレゼンであれば資料をみてもシナリオはわからないのでレビューであれば実際にお話を伺うことが望ましいだろうと考えています。

ちなみにトレーニング色の強いセミナーは僕の中でプレゼンとは違う定義です。トレーニングの場合はまた違うプラクティスがあると思っています。今回は人の心を動かすための行事、プレゼンの話でした。

without comments

Written by 中嶋 一樹

11月 30th, 2010 at 6:03 am

Posted in Uncategorized

あるデバイスがOS(Linux)でサポートされているか調べる方法

「このデバイス(NIC, HBA)、僕/私のOSで動くかな?」というシチュエーションは実際の案件でもよくあります。これを調べる方法を記載しておきます。

まずはデバイスのPCI IDを調べます。

デバイスが手元にない場合はWebを検索したりベンダーさんに問い合わせることでPCI IDは入手することができます。下記はデバイスがすでにマシンに差さっている場合の確認方法です。

lspciコマンドでOSが認識しているPCIデバイスを列挙します。

[root@~]# lspci

00:00.0 Host bridge: Intel Corporation 5520/5500/X58 I/O Hub to ESI Port (rev 12)
00:01.0 PCI bridge: Intel Corporation 5520/5500/X58 I/O Hub PCI Express Root Port 1 (rev 12)
00:02.0 PCI bridge: Intel Corporation 5520/5500/X58 I/O Hub PCI Express Root Port 2 (rev 12)
00:03.0 PCI bridge: Intel Corporation 5520/5500/X58 I/O Hub PCI Express Root Port 3 (rev 12)
00:04.0 PCI bridge: Intel Corporation 5520/X58 I/O Hub PCI Express Root Port 4 (rev 12)
00:05.0 PCI bridge: Intel Corporation 5520/X58 I/O Hub PCI Express Root Port 5 (rev 12)
00:06.0 PCI bridge: Intel Corporation 5520/X58 I/O Hub PCI Express Root Port 6 (rev 12)
00:07.0 PCI bridge: Intel Corporation 5520/5500/X58 I/O Hub PCI Express Root Port 7 (rev 12)
00:08.0 PCI bridge: Intel Corporation 5520/5500/X58 I/O Hub PCI Express Root Port 8 (rev 12)
00:09.0 PCI bridge: Intel Corporation 5520/5500/X58 I/O Hub PCI Express Root Port 9 (rev 12)
00:0a.0 PCI bridge: Intel Corporation 5520/5500/X58 I/O Hub PCI Express Root Port 10 (rev 12)
00:13.0 PIC: Intel Corporation 5520/5500/X58 I/O Hub I/OxAPIC Interrupt Controller (rev 12)
00:14.0 PIC: Intel Corporation 5520/5500/X58 I/O Hub System Management Registers (rev 12)
00:14.1 PIC: Intel Corporation 5520/5500/X58 I/O Hub GPIO and Scratch Pad Registers (rev 12)
00:14.2 PIC: Intel Corporation 5520/5500/X58 I/O Hub Control Status and RAS Registers (rev 12)
00:14.3 PIC: Intel Corporation 5520/5500/X58 I/O Hub Throttle Registers (rev 12)
00:16.0 System peripheral: Intel Corporation 5520/5500/X58 Chipset QuickData Technology Device (rev 12)
00:16.1 System peripheral: Intel Corporation 5520/5500/X58 Chipset QuickData Technology Device (rev 12)
00:16.2 System peripheral: Intel Corporation 5520/5500/X58 Chipset QuickData Technology Device (rev 12)
00:16.3 System peripheral: Intel Corporation 5520/5500/X58 Chipset QuickData Technology Device (rev 12)
00:16.4 System peripheral: Intel Corporation 5520/5500/X58 Chipset QuickData Technology Device (rev 12)
00:16.5 System peripheral: Intel Corporation 5520/5500/X58 Chipset QuickData Technology Device (rev 12)
00:16.6 System peripheral: Intel Corporation 5520/5500/X58 Chipset QuickData Technology Device (rev 12)
00:16.7 System peripheral: Intel Corporation 5520/5500/X58 Chipset QuickData Technology Device (rev 12)
00:1a.0 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #4
00:1a.2 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #6
00:1a.7 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB2 EHCI Controller #2
00:1c.0 PCI bridge: Intel Corporation 82801JI (ICH10 Family) PCI Express Port 1
00:1c.4 PCI bridge: Intel Corporation 82801JI (ICH10 Family) PCI Express Port 5
00:1d.0 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #1
00:1d.1 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #2
00:1d.2 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB UHCI Controller #3
00:1d.7 USB Controller: Intel Corporation 82801JI (ICH10 Family) USB2 EHCI Controller #1
00:1e.0 PCI bridge: Intel Corporation 82801 PCI Bridge (rev 90)
00:1f.0 ISA bridge: Intel Corporation 82801JIR (ICH10R) LPC Interface Controller
00:1f.2 SATA controller: Intel Corporation 82801JI (ICH10 Family) SATA AHCI Controller
00:1f.3 SMBus: Intel Corporation 82801JI (ICH10 Family) SMBus Controller
01:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)
01:00.1 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)
0a:00.0 PCI bridge: Intel Corporation 6700PXH PCI Express-to-PCI Bridge A (rev 09)
0a:00.2 PCI bridge: Intel Corporation 6700PXH PCI Express-to-PCI Bridge B (rev 09)
0f:00.0 IDE interface: JMicron Technology Corp. JMB368 IDE controller
10:01.0 VGA compatible controller: ATI Technologies Inc ES1000 (rev 02)

そしてソレっぽい名前のデバイスを見つけたら、そのデバイスのPCI IDを特定します。これには同じくlspciコマンドで-nオプションを指定しつつ該当デバイスの左のカラムに表示されてるBDF(Bus Device Function)で引っかけます。例えば上記環境でNICについて調べたい場合は「01:00.0 Ethernet controller: Intel Corporation 82576 Gigabit Network Connection (rev 01)」が該当するデバイスっぽいので01:00.0で引っかけます。01:00.1でも構いません。

[root@~]# lspci -n | grep 01:00.0
01:00.0 0200: 8086:10c9 (rev 01)

ということでこのデバイスのPCI IDは8086:10c9ということになります。ちなみに8086がベンダーID(今回で言えばIntelさん)、10c9がデバイスIDになります。このベンダーIDとデバイスIDをそれぞれ変数にセットした上で、findしてmodinfoしてgrep します。

[root@~]# export VENDOR_ID=8086
[root@~]# export DEVICE_ID=10c9
[root@~]# find /lib/modules/$(uname -r)/kernel/drivers/ -name "*.ko*" -exec modinfo {} \; | grep -i "0000${VENDOR_ID}d0000${DEVICE_ID}"
alias:          pci:v00008086d000010C9sv*sd*bc*sc*i*

これで上記のようにaliasの出力があればドライバは存在します。
デバイスを装着してブートすればデバイスから認識されるPCI IDとドライバが対応しているPCI ID情報をマッチングして自動的にドライバがロードされるはずです。

と、いいつつもっと洗練された方法ないのかな、と思ったりしています。
いい方法があれば教えてください。

ちにみに/usr/share/hwdata/pci.idsにもベンダーIDとデバイスIDの一覧があり、ここにリストされているデバイスであれば起動時にPCI IDからデバイス名を解決してlspciの出力に表示してくれます。ここになければUnknown Deviceとして表示されます。ただしこのpci.idsとドライバモジュールは必ずしも同期していないので注意が必要です。

without comments

Written by 中嶋 一樹

11月 22nd, 2010 at 1:26 pm

Posted in Uncategorized

Tagged with ,

NILFS2を使ってみた

NILFSはLinux Kernelにマージされているログ構造化データベースで、連続的で自動的なチェックポイント作成によって実質的に常にSnapshotが取得され続けるというユニークなFilesystemです。Kernel2.6.30より利用できます。

ということで使ってみました。OSはOracle Linux 5.5をベースとしてKernelは2.6.36をCONFIG_NILFS2_FS=mとしてビルドしたものを使いました。恐らくわざわざビルドしなくてもFedoraとかを使う方が楽でしょう。多分カーネルモジュールとしてビルドはされていると思います。(憶測だけど)

NILFSを利用するにはカーネルモジュールがビルドされていることと、mkfs.nilfs2等のユーティリティツール(ユーザーランドツール)が必要です。このツールはこちらからダウンロード可能です。

http://www.nilfs.org/ja/download.html

まずユーティリティツールをビルドします。

[root@~]# tar xvfj nilfs-utils-2.0.20.tar.bz2
[root@~]# cd nilfs-utils-2.0.20/
[root@~]# ./configure
[root@~]# make && make install

ちなみに手元の環境ではuuid libraryがないと怒られました。そんなことがあればe2fsprogs-develをインストールすればことなきを得ます。

ツールがインストールされればNILFSを使う準備は完了です。任意のブロックデバイスまたはパーティションまたはLogical Volumeをフォーマットしましょう。

[root@~]# mkfs.nilfs2 /dev/xvdb
mkfs.nilfs2 (nilfs-utils 2.0.20)
Start writing file system initial data to the device
       Blocksize:4096  Device:/dev/xvdb  Device Size:1073741824
File system initialization succeeded !!

マウントします。

[root@~]# mkdir /nilfs1
[root@~]# mount -t nilfs2 /dev/xvdb /nilfs1
mount.nilfs2: WARNING! - The NILFS on-disk format may change at any time.
mount.nilfs2: WARNING! - Do not place critical data on a NILFS filesystem.
/sbin/nilfs_cleanerd: error while loading shared libraries: libnilfs.so.0: cannot open shared object file: No such file or directory
[root@~]#

ということでマウントは成功するのですが、マウントと同時に起動するように仕組まれているnilfs_cleanerdがlibrary pathエラーで起動しません。ちゃんと調べていないですがとりあえず下記のように手動で起動しておきます(それでいいのか)。

[root@~]# LD_LIBRARY_PATH=/usr/lib /sbin/nilfs_cleanerd
[root@~]# export LD_LIBRARY_PATH=/usr/lib (これをやっておかないと後のlscpでも同様のエラーが出る)

そしてlscpコマンドで現在のチェックポイントをいきなり確認してみたりします。

[root@~]# lscp
                 CNO        DATE     TIME  MODE  FLG   NBLKINC       ICNT
                   1  2010-11-10 17:36:16   cp    -         11          3

すでに作成されてますね。
NILFSは一定間隔毎、または同期書き込み毎にチェックポイントをどんどん作成していきます。
いくつかファイルを作ってみて確認してみましょう。

[root@~]# dd if=/dev/zero of=/nilfs1/1.img bs=1M count=100
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 1.44347 seconds, 72.6 MB/s

[root@~]# lscp
                 CNO        DATE     TIME  MODE  FLG   NBLKINC       ICNT
                   1  2010-11-10 17:36:16   cp    -         11          3
                   2  2010-11-10 17:46:22   cp    -       8295          4

[root@~]# dd if=/dev/zero of=/nilfs1/2.img bs=1M count=100
100+0 records in
100+0 records out
104857600 bytes (105 MB) copied, 1.37617 seconds, 76.2 MB/s

[root@~]# lscp
                 CNO        DATE     TIME  MODE  FLG   NBLKINC       ICNT
                   1  2010-11-10 17:36:16   cp    -         11          3
                   2  2010-11-10 17:46:22   cp    -       8295          4
                   3  2010-11-10 17:47:43   cp    -       1060          5
                   4  2010-11-10 17:47:48   cp    -       5477          5

どんどん作成されてますね。
今、MODEのカラムが「cp」となっています。これはチェックポイントであることを意味しており、このままだとしばらくすると破棄されます。これを保護しておくには任意のチェックポイントをSnapshotとして指定しておきます。

[root@~]# chcp ss 2
[root@~]# lscp
                 CNO        DATE     TIME  MODE  FLG   NBLKINC       ICNT
                   1  2010-11-10 17:36:16   cp    -         11          3
                   2  2010-11-10 17:46:22   ss    -       8295          4
                   3  2010-11-10 17:47:43   cp    -       1060          5
                   4  2010-11-10 17:47:48   cp    -       5477          5

「2」のところでどのチェックポイントをSnapshotにするか指定します。chcpを実行したらその後のlscpの出力から「2」のMODEのカラムが「ss」になっていることがわかります。これはSnapshotとして保護されていることを意味しています。
SnapshotはRead-onlyでマウント可能です。

[root@~]# mount -t nilfs2 -r -o cp=2 /dev/xvdb /nilfs2
[root@~]# ls /nilfs2
1.img
[root@~]# ls /nilfs1
1.img 2.img

-o cp=2のところでマウントするSnapshotを指定しています。
過去の時点がちゃんと保存されていますね。
通常Linuxで間違ってrmしたら相当頑張らないと消したデータを取り戻せませんが、NILFSの場合は直近のチェックポイントからすぐに復旧させることができます。他にもいろいろ応用は考えられそうです。

without comments

Written by 中嶋 一樹

11月 10th, 2010 at 5:48 pm

Posted in Uncategorized

Tagged with

最新のLinux KernelでサポートされているFilesystem

2010/11/10現在、Linux Kernelの最新安定バージョンは2.6.36です。このKernelで組み込まれている比較的新しいFilesystemを簡単に整理してみました。

Ext4

  • Ext2/3との後方互換性を保ちつつ、より巨大なファイルシステム/ファイルのサポート・エクステント管理・マルチブロックアロケーション・遅延アロケーションといったモダンなファイルシステムの機能を実装する
  • Kernel 2.6.19でマージされた
  • Kernel 2.6.28で安定板としてリリースされた
  • More Info: https://ext4.wiki.kernel.org/index.php/Main_Page
  • More Info: http://nkjmkzk.net/?p=185

UBIFS

  • JFF2をベースに開発されているRaw Flash専用ファイルシステム。一般的なHDD,  SD Card, USB Flash, SSDでは使用できない
  • Kernel 2.6.28でマージされた(依存モジュールのUBIは2.6.22でマージされた)
  • More Info: http://www.linux-mtd.infradead.org/doc/ubifs.html

Btrfs

  • Linuxでの次世代デファクトファイルシステムを目指してスクラッチから開発されている。後方互換性を考慮する必要がないためモダンなコンセプトをふんだんに取り入れ、ファイルシステムで一般的になりつつあるエクステント管理やCoW等を実装しつつ、動的なボリュームの追加削除・ファイルシステムサイズの変更やスナップショット機能を実装する
  • Kernel 2.6.29でunstableとしてマージされた
  • More Info: https://btrfs.wiki.kernel.org/index.php/Main_Page
  • More Info: http://nkjmkzk.net/?tag=btrfs

NILFS2

  • ログ構造化ファイルシステム。連続的かつ自動的なチェックポイントによるファイルシステムのバージョン管理機能が特徴。NTTが主体的に開発を進めている
  • Kernel 2.6.30でマージされた
  • More Info: http://www.nilfs.org/ja/

LogFS

  • UBIFSと同じくRaw Flash専用ファイルシステム
  • Kernel 2.6.34でマージされた
  • More Info: http://logfs.org/git/

Ceph

  • 分散ネットワークファイルシステム。動的にストレージノードを追加することによるスケールアウトが可能で、新たな構成に合わせて既存データのリバランスを行う
  • Kernel 2.6.34でマージされた
  • More Info: http://ceph.newdream.net

without comments

Written by 中嶋 一樹

11月 10th, 2010 at 4:31 pm

Posted in Uncategorized

Tagged with , , , , , ,

新しいRAC VM Templateでノード追加

現在RAC(Real Application Clusters)のVM Templateは下記3つがリリースされています。

  • 11.2.0.2 x86_64
  • 11.2.0.1 x86_64
  • 11.1.0.1 x86_64

この内、新しい11.2.0.xのVM Templateではいくつか機能が追加されてきています。新機能の1つとして、「ノード追加」がサポートされています。

詳しい手順はこちらのREADMEのAppendix Bにまとめられています。

ですがREADMEは英語ということもあり、こちらにも手順を記載しておきます。

まずは2ノードのRACが構築されていることが前提です。つまりbuildcluster.shを流し終わった後でこの手順を開始してください。

3ノード目のVMをVM Templateから作成します。

VMが作成されたら既存のRACに割り当てているのと同じ構成で共有ディスクを割り当てます。(Enterprise Manager 11g VM Management Packの場合はVM作成途中に共有ディスクの割り当てまで行えます)

VMを起動します。そしてVNCコンソールで接続し、次のようなプロンプトが表示されたら「OUT」と入力します。

Is this the first node in the cluster (YES/NO): [OUT]

OSが完全に起動しますのでrootユーザでログインします。デフォルトパスワードはovsrootです。

次に仮でネットワークアドレスを割り振ります。これは一時的なもので構いません。設定ファイルを既存RACから転送するためです。

[root@node3]# ifconfig [IP ADDRESS] netmask [NETMASK]

既存のRACノードからnode3にnetconfig.iniファイルを転送します。

[root@node3]# scp node1:/u01/racovm/netconfig.ini /u01/racovm

netconfig.iniファイルを編集してnode3のエントリを追記します。IPアドレスやノード名は環境に応じて変更してください。

NODE1=node1
NODE1IP=10.185.147.58
NODE1PRIV=node1-priv
NODE1PRIVIP=192.168.12.58
NODE1VIP=node1-vip
NODE1VIPIP=10.185.147.59
NODE2=node2
NODE2IP=10.185.147.60
NODE2PRIV=node2-priv
NODE2PRIVIP=192.168.12.60
NODE2VIP=node2-vip
NODE2VIPIP=10.185.147.61
NODE3=node3
NODE3IP=10.185.147.62
NODE3PRIV=node3-priv
NODE3PRIVIP=192.168.12.62
NODE3VIP=node3-vip
NODE3VIPIP=10.185.147.63

# Common data
PUBADAP=eth0
PUBMASK=255.255.248.0
PUBGW=10.185.144.1
PRIVADAP=eth1
PRIVMASK=255.255.255.0
RACCLUSTERNAME=db-cluster
DOMAINNAME=jp.oracle.com
DNSIP=10.185.147.20

# Device used to transfer network information to second node
# in interview mode
NETCONFIG_DEV=/dev/xvdc
# 11gR2 specific data
SCANNAME=db-cluster
SCANIP=

node3でrootユーザでnetconfig.shスクリプトを実行してネットワーク設定をnetconfig.iniに基づいて再設定します。このスクリプトをネットワーク設定を変更するので必ずコンソール接続で実施してください。SSH等ではセッションが途中で切れてしまいます。

[root@node3]# /u01/racovm/netconfig.sh -n 3

次にnode3のnetconfig.shを既存のRACノードにコピーします。

[root@node3]# scp /u01/racovm/netconfig.ini node1:/u01/racovm/
[root@node3]# scp /u01/racovm/netconfig.ini node2:/u01/racovm/

そして最後に既存のRACノード上でracovm.shスクリプトを実行してノード追加を行います。node3の部分は追加されるノード名です。環境に合わせて変更してください。

[root@node1]# cd /u01/racovm
[root@node1]# ./racovm.sh -S addnodes -N node3 2>&1 | tee addnode3.log

手元の環境では約10分程でノード追加が完了しました。自動的に3ノード目でもASM, DBのインスタンスが起動し、3ノードのRACが動き出します。

with one comment

Written by 中嶋 一樹

11月 4th, 2010 at 11:08 am

Posted in Uncategorized

Tagged with ,