人間と機械:ロボット倫理学
Download
Report
Transcript 人間と機械:ロボット倫理学
人間と機械
‐ロボット倫理学‐
1026638c
吉原 美奈子
自律的に判断を行える機械が出来た時
その機械(ロボット)には
責任が生じるのか
軍事用
機関銃搭載の兵器ロボット イラクに配置
• 数年に渡る開発を経て、3台の『SWORDS』(特殊兵器監
視遠隔偵察直接戦闘システム)ロボットがイラクに配置
• 3台とも機関銃『M249 Squad Automatic Weapon』を装備
• 『SWORDS』はイラク全土で使用されている爆弾処理ロ
ボットの改造版
• 指令がすぐに届かない限り指令に従って行動することはな
い
• 銃を発射するには3段階の発射手順と、物理的および電子
的な安全装置がある
• ロボットが奇妙な行動を起こした場合に備えて、停止スイッ
チが搭載された
自動制御兵器と事故 2007.10.22
対空砲の演習中、兵士20名以上が死傷
・南アフリカ共和国防衛軍の銃撃演習中に対空機関砲の
異常により9名の兵士が死亡。10数名が重傷を負っ
た
・この兵器は高速で低空飛行をする飛行機、ヘリコプター、
無人航空機、巡航ミサイルを自動追尾する能力を持つ
・自動モードでは、標的のデータを、射撃制御部から2組
の35ミリ砲に直接送るとともに弾倉が空になると自動
で再装填を行う
1人の女性砲兵士官が自分の命を危険に晒して自分の砲
兵隊に属する隊員たちを銃撃から助け出そうとした
だが、未だ名前の分からないその士官の勇気ある行動に関わらず、
1秒の8分の1の間に、15-20の弾が発射
35mm Twin Gun GDF-005対空二連砲が大きく向きを変えるのを
止められなかった
事故は数秒の間に起こった
爆発力が強く、0.5Kgの重さがある35mm砲の弾丸
が数百発、周囲に向けて発射された
一対の250弾自動装填式弾倉が空になった
ときには、兵士9名が死亡、15名が負傷
南アフリカ『The Star』紙より引用
VS 人間
必ず勝つじゃんけんロボット
・東京大学研究者(石川奥研究所)が開発
・後だしじゃんけんの超人的速さVer.
・じゃんけん=意思決定行為、より身体的な知
性
・空間の中で認識して動くような身体的知性
チェス:スーパーコンピューター
• 1997年の時点でコンピューターが人間に勝利
(ガリ・カスパロフ対ディープ・ブルー)
• 2003年 引き分け(同相手)
• 2005年 コンピューターの圧勝(3対3)
• 2006年 コンピューターの勝利(ディープ・フリッツ対
クラムニク)
• 2009年 スマートフォン搭載のソフトがグラン
ド・マスター級の評価を得る
医療
人間型ロボット
•
•
•
・実在の女性を基にデザイン
人型の妊婦ロボット(医学生用)
・周囲にセンサーを搭載。読みとった内容に
オフィス案内用ロボット
合わせて動きを変える (日立製作所)
・認知科学や心理学といった人間の研究
人の洗髪・頭皮ケア用ロボット
(パナソニック)
+
ロボット工学
工業用ロボット
重い岩を持ち上げるためのロボット
・誤作動により作業員が殺されかけた
(スウェーデン 2012年9月)
検察側は工場側に責任を負わせた。また責
任の一部は作業員にもあるとした
ロボット工学3原則
第一条
ロボットは人間に危害を加えてはならない。また、その
①
危険を看過することによって、人間に危害を及ぼして
人間に危害を与えてはならない
はならない
②
人間から与えられた命令に服従しなければならな
ロボットは人間に与えられた命令に服従しなければな
い
らない。ただし、与えられた命令が、第一条に反する
③
場合は、この限りではない
前2条に抵触しない限り、自己を守らなければなら
第三条
ない
ロボットは、前掲第一条および第二条に反するおそれ
①>②>③
第二条
のない限り、自己をまもらなければならない
2058年「ロボット工学ハンドブック」第56版‐アイザック・アシモフ著 「われはロボット」1950年
より
自律的に判断を行える機械が出来た時
その機械(ロボット)には
責任が生じるのか
ロボット倫理学
• ①ロボットを製造する際の倫
理
• ②ロボットの守るべき倫理
ロボットが道徳的行為者になり得ることが前提
• ③ロボットに対する倫理
ロボットが道徳的配慮を受け得ることが前提
ロボットは道徳的行為者になれるのか
自分の意志で何らかの行動を選択する
①何らかの事態を表象し(可能)
②その事態が実現することを目指して(困難)
←利害を持つことの帰結
③何らかの行動を選択する(機能論理プログラム)
不可能
ロボットは道徳的受容者になれるか
• 現在のロボットは道徳的受容者としての資格
を持っていない
(独自の利害を持っていないから)
• 独自の利害を持つ→「生死」という利害を持つ
不可能
道具としての道徳的ロボット
裁判員制度
量刑に関する一般人の感覚をシミュレートするエキス
パート・システム
介護対象の患
薬を飲みたがらない時
①薬を飲むことを強要
②薬を飲ませず医者に知らせる
③薬も飲ませず医者にも知らせない
介護仕の判断の事例を集めILPにより規則を抽出→介
護仕の倫理的な判断をシミュレート
なぜロボットが必要?
・作業の効率化(大量生産)
・災害対応(震災、原発事故)
「災害対応無人化システム研究開発プロジェクト」
・少子高齢化、労働人口の減少に備えて
・福祉用(介護)、家庭用(家事)(ex ルンバ)
「生活支援ロボット実用化プロジェクト」
・警備用、教育用
最大の問題
• 判断が間違っていた時に機械にはその責任
が取れない
実現の容易さ+潜在的な需要の高さ
道徳的ロボットが人間を支援する道具
道徳的責任を取るためには、それ自身が道徳
として社会に入ってくる可能性は高い
的存在者でなければならない
論点
• システムの行動について誰が責任を持つか
• 誰がロボットを統制するのか
• 人間を超える人工知能を持つロボットは必要
か
• ロボットのゴールは人間にあるのか
参考資料
•
•
•
•
•
•
日経Bizアカデミー
ITメディアニュース
論文「ロボット倫理学の可能性」久木田 水生
WIRED archives
Wikipedia
「ボーカロイド現象」 安藤 卓