どうも、('A`)です。
なんとか虫歯を抜く事ができました。止血に1日以上かかりましたけど、ね。
抜いた処に小さくガーゼを丸めたものをはめ込んで、1日じゅう噛んでました。
あー、しんどかった。麻酔3本打つ破目になりましたけど、つらかったのは炎症を
起こしていた歯茎を削り取るところでした。歯は大切にしましょうね・・・
えーと、今回は以前(第95日目)でも取り上げた「RAID10サーバ」を実際に作ってみました。
エース( ,_ノ` )y━・~~~が発注してやってきたサーバはA-Tigerベースのスペックなのですが、
フロント部分が他のサーバと違うのですよ。前の方からHDDを取り出しできるのです。
(写真のなかで「TIGER3534」とラベルが貼られているサーバが今回のRAID10サーバです。
写真を見て、向かって左側から0番、1番、2番、3番という割り振りになっています。
で、赤いボタンのようなものがありますが、ここをポチッと押すと中からHDDがバシュッと
出てきます。)

スペックはこんな内容です。
サーバ名: tiger3534.maido3.com
マザー: Intel(R) DQ35JO (だったかな?)
CPU: Intel(R) Core(TM)2 Quad CPU Q9550
メモリ: 8 GB
HDD: 300 GB (Western Digirtal WDC WD3000HLFS)*4
NIC: Intel PRO /1000NetWork Connection Ver6.7.3(オンボードです)
RAID Card:Areca ARC-1210
OS: FreeBSD7.0-RELEASE amd64 (スケジューラはULEを使っています。)
|
あー、そうそう。特別にドライバーとかを個別にインストールする必要はありませんでした。
取りつけられているRAIDカードはこんな感じです。

で、リモートコンソールを使って、BIOS画面上から確認したRAIDの情報は以下の通りです。
[The Raid Set Information]
Raid Set Name: Raid Set # 00
Member Disk: 4
Raid State: Normal
Raid Power State: Operationg
Total Capacity: 1200.0GB
Free Capacity: 0.0GB
Min Member Disk Size: 300.0GB
Member Disk Channels: 1234
[The Volume Set Information]
Volume Set Name: ARC-1210-VOL#00
Raid Set Name: Raid Set # 00
Volume Capacity: 600.0GB
Volume State: Normal
SCSI Ch/Id/Lun: 0/0/0
RAID Level: 1+0 (RAID 10) !!!!!!!!!
Stripe Size: 128 KB
Block Size: 512 Bytes
Member Disks: 4
Cache Attribute: Write-Back
Tag Queuing: Enabled
[Physical Drive Function]
[Drive Information]
Ch01
Model Name: WDC WD3000HLFS-01G6U0
Serial Number: WD-WXLX08075764
Firmware Rev.: 04.04V01
Disk Capacity: 300.1GB
Current SATA: SATA300+NCQ(Depth32)
Supported SATA: SATA300+NCQ(Depth32)
Device State: RaidSet Member
...
Ch02
Model Name: WDC WD3000HLFS-01G6U0
Serial Number: WD-WXLX08074452
...
Ch03
Model Name: WDC WD3000HLFS-01G6U0
Serial Number: WD-WXLX08075350
...
Ch04
Model Name: WDC WD3000HLFS-01G6U0
Serial Number: WD-WXL608037299
で、花子や花代の様にブラウザからRAIDの管理ができるツールもあります。
メーカの方で提供されているもので、32bit(archttp32)、64bit(archttp64)版が
それぞれあります。
[64bit]
ftp://ftp.areca.com.tw/RaidCards/AP_Drivers/FreeBSD/HTTP/V1.83_81103/x86-64/archttp64
[32bit]
ftp://ftp.areca.com.tw/RaidCards/AP_Drivers/FreeBSD/HTTP/V1.83_81103/i386/archttp32
で、このツールを例えば /usr/local/sbin 当たりに次の様に設置します。
cd /usr/local/sbin
wget ftp://ftp.areca.com.tw/RaidCards/AP_Drivers/FreeBSD/HTTP/V1.83_81103/x86-64/archttp64
chmod 555 archttp64
|
それから以下の様に/etc/rc.local に記述して、サーバ起動時に起動する様にします。
#!/bin/sh
/usr/local/sbin/archttp64 > /dev/null &
|
そうすると、Webサーバのデフォルトのアドレスのポート81番にアクセスすると、以下の
ページが表示されます。
('A`)あ、えー、、、、まあいいか。

で、エース( ,_ノ` )y━・~~~が先日行なったホットスワップの実験を以下で
ご紹介します。
まず、今回のRAID10サーバのRAIDの構成について説明します。
ハードディスクは#0、#1、#2、#3の4本があります。そしてこの4本は
#0 と #1 でミラーリング、#2 と #3 でミラーリングをしています。
さらに、[#0 #1] と [#2 #3] でストライピングをしています。
|
1)ハードディスクを1本抜いてみる
まず、#0 のハードディスクを抜く
(つまり、#0のハードディスクが壊れた事を疑似的に起こす)
---------------------------------------------
Raid Set Hierarchy
Raid Set # 00 Failed ARC-1210-VOL#00 (0/0/0) Degraded 600.0GB
IDE Channels
Ch01 N/A N/A N/A
---------------------------------------------
ハードディスクが無い状態でもサーバーは問題なく稼働中。
(他の3台のハードディスクで補完されるので)
で、次に#0 に新しいハードディスクを挿す
---------------------------------------------
Raid Set Hierarchy
Raid Set # 00 Ch01← ARC-1210-VOL#00 (0/0/0) Rebuilding(7.0%) 600.0GB
IDE Channels
Ch01 Raid Set # 00 300.1GB WDC WD3000HLFS-01G6U0
---------------------------------------------
すると自動的に復旧が始まります。
(RAIDコントローラー上での操作は必要なし。)
---------------------------------------------
Raid Set Name Raid Set # 00
Member Disks 4
Total Raw Capacity 1200.0GB
Free Raw Capacity 0.0GB
Min Member Disk Size 300.0GB
Raid Set Power State Operating
Raid Set State Rebuilding
---------------------------------------------
今回はこの復旧でリビルドに1時間13分かかりました。
2)ハードディスクを2本抜いてみる(抜くのはミラーリングの片方ずつ)
続いて #0 と #2 のハードディスクを抜いてみます。
ミラーリングは [#0と#1]、 [#2と#3]が対になって行われていますが、
今回はその中の#0と#2が故障したという状況を作り出します。
---------------------------------------------
Raid Set Hierarchy
Raid Set # 00 Failed ARC-1210-VOL#00 (0/0/0) Degraded 600.0GB
IDE Channels
Ch01 N/A N/A N/A
Ch03 N/A N/A N/A
---------------------------------------------
ハードディスクが2本無い状態でもサーバーは問題なく稼働しました。
(もちろん無理やり動いている事には変わりませんが・・・)
で、抜いたハードディスクの処に新しいディスクを取りつけます。
---------------------------------------------
Raid Set Hierarchy
Raid Set # 00 Ch01← ARC-1210-VOL#00 (0/0/0) Rebuilding(9.3%) 600.0GB
Ch03←
IDE Channels
Ch01 Raid Set # 00 300.1GB WDC WD3000HLFS-01G6U0
Ch03 Raid Set # 00 300.1GB WDC WD3000HLFS-01G6U0
---------------------------------------------
すると、先程と同じ様に自動的にRAIDの復旧(リビルド)が始まります。
(RAIDコントローラー上での操作は必要なし。)
---------------------------------------------
Raid Set Name Raid Set # 00
Member Disks 4
Total Raw Capacity 1200.0GB
Free Raw Capacity 0.0GB
Min Member Disk Size 300.0GB
Raid Set Power State Operating
Raid Set State Rebuilding
---------------------------------------------
今回はこの復旧でリビルドに1時間20分かかりました。
3)ハードディスクを2本抜いてみるが、抜くのはストライピングのハードディスク
[#0と#1]、 [#2と#3]が対になってミラーリングが行われています。
そして仮に[#0と#1]のまとまり(グループ)と[#2と#3]のまとまり(グループ)が
ストライピングしている関係となっています。
今回は片方のグループ[#2と#3]が吹っ飛んだという状況を作り出しました。
#2 を抜いた時点ではサーバーはまだ稼働している状態でした。
で、#3 が抜けるとサーバーはダウン状態となりました。
#3のハードディスクが抜かれた(壊れた)時点でRAID setそのものが壊れる為、
新しいハードディスクをインストールしても、自動的にリビルドされません。
RAIDカードのRAID修復機能を使っても、復旧は不可能です。
新しくRAID set/Volumeをまっさらなところから再作成して、作り直すことになります。
で、エース( ,_ノ` )y━・~~~がホットスワップを実験した結果を
まとめてくれていたので、ちょっとご紹介しておきます。
流石判りやすいなあ・・・
テスト結果: -----------------------------------------
RAID10(1+0) の構成
#0 と #1 でミラーリング
#2 と #3 でミラーリング
[#0 #1] と [#2 #3] でストライピング
・単一のドライブが故障した場合(確率 1/4)
新しいHDDをインストールして自動的にリビルド
(ミラーリンググループでリビルド ex: #0 -> #1)
・異なるミラーリンググループのドライブが故障した場合(確率 2/4)
新しいHDDをインストールして自動的にリビルド
(ミラーリンググループでリビルド ex: #0 -> #1)
・同じミラーリンググループのドライブが故障した場合(確率 1/4)
故障
比較:RAID-10(0+1) の場合
#0 と #1 でストライピング
#2 と #3 でストライピング
[#0 #1] と [#2 #3] でミラーリング
・単一のドライブが故障した場合(確率 1/4)
新しいHDDをインストールすれば自動的にリビルド
(ミラーリンググループでリビルド ex: [#0 #1] -> [#2 #3])
・異なるストライピンググループのドライブが故障した場合(確率 2/4)
故障
・同じストライピンググループのドライブが故障した場合(確率 1/4)
新しいHDDをインストールして自動的にリビルド
(ミラーリンググループでリビルド ex: [#0 #1] -> [#2 #3])
----------------------------------------------------------
もうね、この日記もお任せしちゃおうかな?
さてさて、予想はしていたのですが、8.0のBETA版がまだ出ません。
先日200906版の8.0を試しに社内サーバでインストールしたのですが、
”GENERIC”でのカーネル再構築中にコケて、もうね、愚痴しか出ない状態です。
200905版では同じ手順でカーネル再構築できたのになあ・・・
(先生、GENERICでエラーですよ、まったく・・・)
ヽ('A`)/ ズコー
\(\ ノ
、ハ,、  ̄
 ̄"
cc -O1 -fno-strict-aliasing -pipe -Werror -D_KERNEL -DKLD_MODULE -nostdinc
-DHAVE_KERNEL_OPTION_HEADERS -include /home/service/obj/usr/src/sys/GENERIC/opt_global.h -I.
-I@ -I@/contrib/altq -finline-limit=8000 --param inline-unit-growth=100
--param large-function-growth=1000 -fno-common -g -fno-omit-frame-pointer
-I/home/service/obj/usr/src/sys/GENERIC -mcmodel=kernel -mno-red-zone
-mfpmath=387 -mno-sse -mno-sse2 -mno-sse3 -mno-mmx -mno-3dnow -msoft-float
-fno-asynchronous-unwind-tables -ffreestanding -fstack-protector
-std=iso9899:1999 -fstack-protector -Wall -Wredundant-decls -Wnested-externs
-Wstrict-prototypes -Wmissing-prototypes -Wpointer-arith -Winline -Wcast-qual
-Wundef -Wno-pointer-sign -fformat-extensions -c /usr/src/sys/modules/md/../../dev/md/md.c
/usr/src/sys/modules/md/../../dev/md/md.c: In function 'mdcreate_swap':
/usr/src/sys/modules/md/../../dev/md/md.c:1045: error: too many arguments to function 'vm_pager_allocate'
*** Error code 1
1 error
*** Error code 2
1 error
*** Error code 2
2 errors
*** Error code 2
1 error
*** Error code 2
1 error
dokuo#
本家からSA(セキュリティアドバイザリ)が出ていたので、7.2R版サーバ構築用の
パッケージにパッチとか当てながら、気長に待ってみます。
で、手持ちのノートパソコン(10年以上前のNECのなんですけどね。)を使って
色々やってみようかな、と。
スペックはこうです。(ってか、こんな骨董品見たことないでしょう。ハハハ・・・)
再利用できるなら、再利用したいなあ、と思ってます。
------------------------------------------------------
PC-LW36H12D6
CPU:Celeron 366MHz
RAM:256MB(増設済み、オリジナルは64MBだったと思う)
HDD:6.5GB (HITACHI DK239A-65)
Windows98で動いていました。。。
------------------------------------------------------
PC-BSDをインストールしようとすると、カーネルパニックになるんだよなあ。
(どうもACPIのあたりでエラーになるようです。)
本意ではないんだけど、夕張市を見習って、ubuntuでも入れてみようかなあ。
それでは、また。
|