X



【アメリカ】国防総省 軍事利用に向け人工知能の開発に20億ドルを投資 [09/12]
■ このスレッドは過去ログ倉庫に格納されています
0001SQNY ★垢版2018/09/12(水) 20:40:56.39ID:CAP_USER
・米国防総省 軍事利用に向け人工知能の開発に20億ドルを投資

今日、軍事技術分野でのAI開発に関わる米国防総省予算の総額は、20世紀にマンハッタン計画で核開発を行った際に費やした総額に匹敵する。新たな投資の目的は、防衛・攻撃能力計画に関わる中露との競争にあると、米テレビ局CNNは報じた。

AI開発プロジェクトの大部分は、米国防総省の国防高等研究計画局によって進められている。同局の研究員は、さまざまな軍備モデルのAIシステム構築に取り組んでいる。実際は、AIシステムが自立して決定を下したり、自ら目的を見出したりするということでの議論は、まだ進んでいない。

新しいAI技術の構築に向けた予算20億ドルを受け、国防高等研究計画局の指導部は、ただちに実際の作業に着手する用意があり、この10年間で投資を遂行したいと表明している。国防高等研究計画局の情報部部長代理ジョン・エベレット氏は、「もし我々が軍事および国防安全保障強化にとって重要な、前向きな結果を得ることができるならば、我々はこの開発を留めるということはしない」と述べた。

米国の軍人関係者は、AIシステムを研究するさまざまな企業の援助を期待している。しかし、今年7月、米企業家イーロン・マスク氏(宇宙運輸企業スペースX社の創設者)を含む、約160企業と約2500人の研究者・企業家らは、ストックホルムで開催された人工知能国際会議で、軍事利用を目的としたAI開発を拒否する条約への署名を行った。

・The Pentagon is investing $2 billion into artificial intelligence
https://money.cnn.com/2018/09/07/technology/darpa-artificial-intelligence/index.html

(イメージ画像)
https://jp.sputniknews.com/images/280/10/2801018.jpg

2018年09月12日 20:10 スプートニク日本
https://sptnkne.ws/j6hj
0002七つの海の名無しさん垢版2018/09/12(水) 20:43:37.68ID:HZL2m4w0
>>1
もう日本は隣すら立てない
0003七つの海の名無しさん垢版2018/09/12(水) 20:44:37.03ID:x0IEUmLa
一方日本の大学は軍事研究はしないと決めた
0004七つの海の名無しさん垢版2018/09/12(水) 20:46:30.91ID:SUvLf6E3
AIが核攻撃示唆したら止めれるのか?怖い
0005七つの海の名無しさん垢版2018/09/12(水) 20:51:32.15ID:gu1D4Nms
CNN
0006七つの海の名無しさん垢版2018/09/12(水) 21:13:25.98ID:r04zXstu
グーグルの止めた研究者 見てるぅ?   



最新ミリタリー関連記事/ Miletary & Mecanix
http://yamatotakeru999.jp/index.html

★MALD-X/マルド 米軍最新デコイミサイル登場  

★総合火力演習2018その2 水陸機動団展開編

★F-3から超音速大型無人機まで 
日本の航空最新記事
0007七つの海の名無しさん垢版2018/09/12(水) 22:08:44.31ID:aMWQyrxW
>>4
簡単に止められないだろうね

物理的なストッパー(色々あるけど、戦略原潜は核発射管制室は通常とは違う場所で簡単に入れないとか、発射管制のカギが金庫にあるとか、
その金庫は2人居ないと開かないとか。さらに今はありえんが戦闘機や戦略爆撃機が核を搭載するときは、発射装置をワイヤーで縛りつける手順がある)と、
米軍高官の言う「核攻撃が違法であれば命令に従わない」という個人の意思が最終阻止手段になるだろう

「ツーマン・ルール」、「核のフットボール」、「ゴールド・コード」、「黄金の電話」、「PALセキュリティ(デバイスをロックするシステム)」・・・といった良く知られる
何重もある保安基準を廃止してしまえば、AIの最終判断を合法的に変更する術はないと思われ
(米軍は正しい手順・コードに基づいた命令であるなら「合法」と見做し、本物かどうかを統合本部に返信して確認することは禁じられている)
さらに発射まで自動化し、物理的なストッパーを無くしてAIに委ねれば万事休す

戦術核よりも「使える」核にしよう(「使える核化」)という動きが米軍にもあるが、それは戦略核ミサイルよりもお手軽な仕組みにするだろう
から余計に危ない

今までも核発射の一歩手前まで行ったことはあるんだよな
キューバ危機ではソ連潜水艦の副艦長(エブグラボビッチ中佐)の意思が発射命令を阻止したのだが・・・AIになればどうなるかw
「ケ・セラ・セラ(なるようになるさ)」では済まされんわなw
0008七つの海の名無しさん垢版2018/09/14(金) 12:58:01.94ID:/Wa2AXLn
オハイオ級原潜だと、SLBM発射のための専用管制室は発令所とは別フロアで完全別室
発令所にもSLBM管制装置はあるが、それは発射管自体の作動(高圧空気を使うための)コンソールであって
発射自体は操作できない

発射のための発射管制室は、拳銃所持の大尉がドアの前で待機する
入室できるのは(艦長は入れる権限はあると思われるが通常は入室しない)管制士官2名、発射操作を実行する技術兵2名の計4名のみ

24発の核ミサイルは1発づつに別々のキーがあり、全弾発射など簡単にできることではない
勿論キーは管制室内金庫の中
ミサイルへの座標指示コンソールと、発射制御コンソールも離れてる。同時にはできない

指示・発射操作・発射管を操作して船体の外に出るに至るまで、全てが不便極まる仕組みなのも、「万一の凶行」に備えてるからで
そりゃフルオートにしようと思ったら簡単だが、敢えてそういう人的・物理的不便さを備えてる

AIでフルオートにするのは簡単だが、そうなるとAIの凶行を誰も制御できなくなる
AIの誤射責任をどうやってとるのか?(AIなぞ壊したところで痛痒にも感じないだろう)
■ このスレッドは過去ログ倉庫に格納されています

ニューススポーツなんでも実況