201707 シンギュラさんと食い違う

昨日の続き。

仮に今、既にシンギュラリティが起こっていたとします。
現在、人類にとって最善、最優先の対策は何か、AIに問いかけたとします。
人類にとってベストな選択は戦争を行うことという冷徹な回答がAIから出てくる可能性はありえるのだろうと思うのでした。
いくつかパターンは考えられますが、例えば世界中に軍事兵器があって人類が種族として、これを使いたがっていると判断されたら戦争を勧めるでしょう。
人類側が戦争を止めることが最善であると考えても、AI側が戦争を続けることが最善であると判断された場合はどうするのがいいのか。

ブログ主はやっぱり平和を願います。