intel_ssd_910_20140817

Download Report

Transcript intel_ssd_910_20140817

#01
Intel PCIe SSDの使い方
~ ご注文は910ですか? ~
A IPv6 personal user
Kunitaka Nmaba ( @ipv6labs )
http://negi.ipv6labs.jp/
SSD界隈に激震が走る!!
2014年08月15日(金)
参考:http://akiba-pc.watch.impress.co.jp/img/ah/docs/662/291/html/ints1.jpg.html
Presentation Title
pg 2
Intel SSD 910シリーズとは
Presentation Title
pg 3
400GB/800GBモデルの違い
項
400GBモデル
800GBモデル
型番
SSDPEDOX400G301
SSDPEDPX800G301
容量構成
200GB x2 = 400GB
200GB x4 = 800GB
シーケンシャルRead
1,000MB/sec
2,000MB/sec
シーケンシャルWrite
750MB/sec
1,000MB/sec または
1,500MB/sec ※
ランダムI/O Read/4kB
mo501.ml.2iij.net
90,000IOPS
ランダムI/O Write/4kB
38,000IOPS
書込限界値(保証値)
7PB(7,000TB)
14PB(14,000TB)
重量
125g
190g
180,000IOPS
75,000IOPS
ベンチマーク性能は128kB(131,072byte)のデータをキューの深さ32で読み書きしたもの
※Max performance mode使用時(と記載がある)
参考:http://www.intel.co.jp/content/www/jp/ja/solid-state-drives/ssd-910-brief.html
Presentation Title
pg 4
400GB/800GBモデルの共通部
項
内容
NANDメモリの素性 25nm プロセス、HET-MLC(高耐久MLC)
読込遅延
65μsec 512Bシーケンシャルかつ、キューの深さ1つ
書込遅延
65μsec 4kBシーケンシャルかつ、キューの深さ1つ
各種形状
PCI Express 2.0 x8、ハーフハイト・ハーフレングス
(フルレングス用アダプタ同梱)
幅69mm x 奥行168mm x 厚さ19mm
平均故障時間
(MTBF)
100万時間
消費電力
稼働時:25W ※Max Performance Mode時は28W
アイドル時:8W(400GB)、12W(800GB)
動作温度
0~55℃
風量:200LFM(1m/sec)/通常利用時
風量:300LFM(1.5m/sec)/Max Performance Mode時
製品の監視
Intel謹製SSD管理ツール、S.M.A.R.T、SCSI log pages
Presentation Title
pg 5
400GB/800GBモデルまとめ
1.スペック上では壊れないと考えてよい
(全領域書いて消すような事も毎日可能)
2.性能は容量に応じる、通常のSSDと同じ
3.IOPSを求める場合、UFSの様なシンプルな
ファイルシステムの方が性能は良い
4.PCIe x8スロットを要求するので、x16スロットの余りで
代用する必要があるかもしれない※
5.それなりの風量が必要、特に複数枚装着する場合は
気を付けること
※デスクトップだとx1、x4、x16の構成が多い
Presentation Title
pg 6
Intel SSD 910について①
1.bootデバイスにならないって本当?
→本当、UNIX/Linuxなら気にならなない
2.動かしたことのあるOSは?
→CentOS6、Solaris10、Solaris11 刺したら動いた
3.性能は十分に発揮できたか?
→条件による、SATA/SAS接続に比べれば圧倒的
4.監視とかどうするの?
→LSIのツールでも、S.M.A.R.Tでも見える 詳細は後述
5.もし壊れたら?
→検証した限り、交換はSAS-HDDと同じで良い
6.これだけは一緒に使ったほうが良いものは?
→ xargs一択、grep 等に渡すとCPU分ほぼスケール
Presentation Title
pg 7
Intel SSD 910について②
1.メリットは何?
→価格あたりの性能、動作範囲の広さ、価格の安さ
2.デメリットは何?
→切り分けも交換も自己責任で
3.やっぱり熱いの?
→熱い、かつての10G-T NICと同じくらい熱い
4.何枚でも刺せるの?
→刺せる、800GBモデルを6枚刺して動かしたことがある
5.人生変わりますか?
→待ち時間が減って仕事が増える
6.壊れたことはあるか?
→無い(仕事で20枚程、400GB/800GB両方、2年弱)
Presentation Title
pg 8
Intel SSD 910の物理形状
NAND FLASH 200GB x2
※800GBモデルはここまで装着
干渉しやすく、冷え難いので注意
NAND FLASH 200GB x2
※400GBモデルはここまで装着
コントローラ部 SASブリッジ
(実態はLSI SAS2008 HBA)
mpt_sas系ドライバがあればよい
PCI Express 2.0 x8
Presentation Title
pg 9
Intel SSD 910論理接続図
200GB
200GB
↑
LSI SAS2008
200GB
200GB
SASカード + SASバックプレーンx4(SSD) が1枚のPCIe上にあるようなもの。
NANDモジュール部をハードウェアでRAIDすることはできない。(機能が提供されてない)
束ねて1つのデバイスに見せたい場合は、ソフトRAIDを使う。
Presentation Title
pg 10
Linuxでの見え方(lspci)
lspci -v での出力結果(CentOS6.5で実行)
06:00.0 Serial Attached SCSI controller: LSI Logic / Symbios Logic SAS2008 PCI-Express Fusion-MPT SAS-2 [Falcon] (rev 03)
Subsystem: Intel Corporation Device 3700
Physical Slot: 1
Flags: bus master, fast devsel, latency 0, IRQ 24
I/O ports at e000 [size=256]
Memory at feb3c000 (64-bit, non-prefetchable) [size=16K]
Memory at feb40000 (64-bit, non-prefetchable) [size=256K]
Expansion ROM at feb80000 [disabled] [size=512K]
Capabilities: <access denied>
Kernel driver in use: mpt2sas
Kernel modules: mpt2sas
/dev/sda、/dev/sdb… として見えるので、フォーマットしてマウントすれば即使用できる。
Presentation Title
pg 11
Solarisでの見え方①
/etc/path_to_inst の記述
"/pci@400/pci@1/pci@0/pci@0/pciex1000,72@0" 0 "mpt_sas"
"/pci@400/pci@1/pci@0/pci@0/pciex1000,72@0/iport@8" 10 "mpt_sas"
"/pci@400/pci@1/pci@0/pci@0/pciex1000,72@0/iport@8/disk@w5000cca01300e000,0" 9 "sd"
"/pci@400/pci@1/pci@0/pci@0/pciex1000,72@0/iport@20" 13 "mpt_sas"
“/pci@400/pci@1/pci@0/pci@0/pciex1000,72@0/iport@20/disk@w5000cca01300e001,0" 12 "sd"
"/pci@400/pci@1/pci@0/pci@0/pciex1000,72@0/iport@v0" 16 "mpt_sas“
format コマンドでの出力
8. c2t5000CCA01300E411d0 <INTEL(R)- SSD 910 200GB-a424-186.31GB>
/pci@400/pci@1/pci@0/pci@0/pciex1000,72@0/iport@8/disk@w5000cca01300e000,0
9. c3t5000CCA01300E416d0 <INTEL(R)- SSD 910 200GB-a424-186.31GB>
/pci@400/pci@1/pci@0/pci@0/pciex1000,72@0/iport@20/disk@w5000cca01300e001,0
Solaris10/SAPRC、Solaris11/SPARC、Solaris11/x86_64にて動作を確認済
Presentation Title
pg 12
Solarisでの見え方②
cfgadm コマンドでの出力(制御も可能)
Ap_Id
Type
Receptacle
Occupant
Condition
c2
scsi-sas
connected
configured
unknown
c2::dsk/c2t5000CCA01300E000d0
disk
connected
configured
unknown
c3
scsi-sas
connected
configured
unknown
c3::dsk/c3t5000CCA01300E001d0
disk
connected
configured
unknown
普通のSAS(SCSI)接続されたストレージとして認識される。
当然ながら、cfgadm -c uncofigure/configure して取り外すことができる。(検証済)
ただしPCIeデバイスなので、通常のサーバでは活性交換できない。
ホットスワップに対応したPCIeを備えるような大型サーバがあるが、実機は無く、試せていない。
例)SPARC T5-4、SPARC M10-4
Presentation Title
pg 13