共生第二 解析&ファイルサーバー taro , pochi , hanako

Download Report

Transcript 共生第二 解析&ファイルサーバー taro , pochi , hanako

共生第二 解析&ファイルサーバー
taro , pochi , hanako ,tama
のご紹介
1
taro
所在:研究棟2F(河宮さんの隣の部屋)
 仕様:

 64bit
ultra sparc (Sun Fire 280R)
 OS: Solaris 9, Raid: ~ 9TB
 テープ装置:DDS4, DLT, Super DLT

地球フロンティア研究棟LANに接続
 研究棟内の自分のPCから自由にアクセス可
(ssh推奨)
 地球フロンティア研究棟LANのファイアウォー
ル・アカウントを持つ人は外部からもアクセス可
(telnet,ftp)
2
taro

ソフトウェア類
 Sun
Sparc Compiler
 DCL, gtool3.5, GrADS, ImageMagick,..

ディスク配分
 グループ別

約 1 TB x 6 (+ 3)
長所
 1GB/processの壁が[無い]

(メモリ:8GB)
pochi
 Taroの/HOMEを毎週水・土曜日にバックアップを
行っている
3
hanako
所在:ES棟3Fサーバー室
 仕様:

32bit Xeon x 2CPU
 OS: RedHat Linux 8.0
 Raid: ~ 6TB, テープ装置:DDS4, DLT


ES-NET接続 (ES本体とは断絶)



ES棟外部へ接続可能 。外部からは、taro経由で接
続可能
現在は、ES棟3F端末室からリモート(ssh)で利用
主な用途:

ファイル置き、解析、転送処理
4
hanako

ソフトウェア類
 Intel
Fortran Compiler 7.1
 DCL, gtool3.5, GrADS, ImageMagick,..

ディスク配分
 グループ別,
約1TBx6領域
 modelcore, taikikagaku, tansojunkan,
kanreiken, ohters, and ‘ferry’

問題点
 1GB/processの壁
(メモリ:4GB)
5
tama
所在:ES棟3Fサーバー室
 仕様:

64bit Itanium2 x 2CPU
 OS: RedHat Linux AS2.1
 Raid: ~ 2.75TB x 2
ES棟外部へ接続可能 。外部からは、taro経由で可能
 現在は、ES棟3F端末室からリモート(ssh)で利用



主な用途:

解析(hanakoより大型の解析が可能)、転送処理、ファイ
ル置き
6
tama

現状


Raidは、modelcoreグループが占有してるので使えないが、
tama上でhanakoのRaidをマウントして、計算することが可
能
ソフトウェア類
Intel Fortran Compiler 7.1
 DCL, gtool3.5, GrADS, ImageMagick,..


ディスク配分


modelcore, and ‘ferry’
長所

1GB/processの壁が[無い] (メモリ:16GB )
7
taroとhanako,tamaの関係

hanako,TamaはES-NETの中
にあるため、地球フロンティ
ア研究棟LANからは、taroを
通して利用する。


地フロLAN
ネットワーク管理者がアクセス
キーカードとピン番号を使用し
taroとhanako,tama間のネット
ワークを接続していれば相互に
利用できる
taroは地球フロンティア研究
棟LANのファイアウォール・
アカウントを持っていれば、
hanako, tama,外部から接続
可能
ES-NET
8
taroとhanako,tamaの関係


taroからhanakoにlogin(tamaは3022)
 taro> ssh –p 2022 localhost
taroのFileAをhanako:directoryにscp(tamaは3022)
 taro> scp –P 2022 FileA localhost:directory/
9
taroとhanako,tamaの関係


hanako からtaroにlogin
 hanako> ssh –p 4022 localhost
hanakoのFileAをtaro:directoryにscp
 hanako> scp –P 4022 FileA localhost:directory/
10