人間は人工知能を信じきれるのか

将棋の藤井聡太3冠が竜王を奪り4冠になったので、
折角なので連続ではありますがAIの話の続きを。

HEROZ(東証1部:4382)という会社をご存知だろうか?
そう、昨今めっちゃ強いといわれる将棋ソフトの会社である。
現在最強を誇る将棋AI「Ponanza」の開発者達に関係する会社でもある。
ほぼ将棋ソフトで上場してしまうんだから、すごいねぇ。。。
(もちろんそれだけの会社ではないですよ、念のため。)

この創業者の皆さんとも知己であり、
出会った時には、もっぱらコンピュータやゲームの話ばかりで
お互いの目をキラキラさせた記憶がある。
私の辞任ほどなく代表を勤めている林さんから私的にメッセージもいただき、
仕事に限らない繋がりを泣けるほど嬉しく思ったものである。

さて、その最強ソフトと言われる将棋AIは前回説明した
深層強化学習型AIかというと、実は元々はそうではない。
元々(電王戦でプロ棋士に勝ってしばらくくらいまで)は
開発者達が多くの心血を注いで作り込んだもので
どちらかといえばエキスパート型AIである。
これをさらに強化すべく深層強化学習の要素を取り込み、
現在の無頼の強さに発展させてきた経緯があるのである。
AIの創造主たる開発者達の情熱には頭が下がる。

話は変わり前回の話に紐づくが、
エキスパート型AIは、コンピュータ君が答えを導くための、
その土台となる考え方(取捨選択や環境把握)は創造主たる人間がデザインする。
一方で(真の)深層強化学習は
ニューラルネットワークの構造設計には人間が関与するものの、
膨大なデータを学習させることにより「コンピュータ自体が学び成長する」のである。
当然そうやって出来たものは「ブラックボックス」であり、開発者や利用者が見ても
「なんでそういう答えを出したのかの経緯やロジックがわからん」なのである。
「お茶出して」とお願いしたら「ぬるいコーヒーが出てきた、なぜ?」という
感じに似ている。人間の思考や行動の本質的なところが他から確信できないのと同様、
深層学習型AIの中身はブラックボックスであり、その意思決定過程は
究極のところ、「わからない」のである。

子供が変な言葉を覚えてきて親が困ってしまうのにも似て、
深層強化学習型AIは、変なデータや間違ったデータ、間違った答えを教え続けると
おかしな結果を出したり、答えが意味不明になったりする。「誤学習」「過学習」という。
apple社に怒られるかもしれないがsiriは宇宙人はいるのかなどのヘンテコ質問には
饒舌に答えてくれるが日常の応答に対しては整理されてないデータによる
学習のしすぎで「かなりおバカ」な感じがする。
(以下はあくまで例として。問「1+1はいくつ?」、
答「状況により色々な考え方がありますが自分で計算するのも良いものですよ」、、、、
ておい!そんなこと聞いてないわ!(汗))

個々の人間だってどういう行動をとるかは曖昧なので、
その辺は同じといえば同じなのだが、
「コンピュータが」ということになると現実は結構危なっかしい。
文字の判読や物体認識、音声・顔の認識精度向上、ゲームとかならともかく、
車の運転や刑罰の判定、つまり人間の生死に関わるものや多額の金額が絡むもの、
やらかしてしまうと取り返しのつかないもの、などを
プログラムした通りに動くエキスパート型ではない、
学習した結果で自立的に答えを出す深層学習型AIという
「ブラックボックスに任せていいのか」という問題はとても大きな問題である。
判断に至った中間の思考過程や中間結果を確認したり、
あるいはその過程において人間によるチェック、承認プロセスを必要としたりという
ことが当然ではあるが求められる事になる。

ここにAIの実導入の難しさがある。
「人間だってきちんと車を運転できるかどうかわからないのだから、
どう考えてそう運転するのかは誰もわからないにしても、
学習をしっかりしたAIに任せた方が、安全である。」
という文脈をYES と言えるかどうか、なのである。
AIによる自動運転が事故を起こしてしまった時、誰が責任を取るのか。
子供の責任は親が取らなければならないが、いつまでもそうとばかりは出来ない。
子供が大人になって独り立ちするには、やはり経験が必要で、
親は危なっかしくも見守り、信じ、任せ、手離れしなくてはならない。
いよいよ人間とコンピュータの関係はそういうところを迎えつつある。

深層学習型AIの課題は多い。
画像や文字、音声の認識などが人間の精度や速度を
はるかに上回るところまで来たことは述べた。
しかしそれら個々のAIの学習結果は「まだ繋がっていない」。
将棋が強いからといって囲碁が強いわけではない。
音声を文字におこせるからといって意味を理解しているわけではない。
本という知のアーカイブから学ぶことも出来ないし、
気持ち・感情といったものも理解していない。

それでも、
人間だって脳のニューロンの電気信号によってるのだから、
あるいはこれらの問題が解決される道筋は、
いずれ近い将来に訪れはするだろうと僕自身は強く思うのである。

またしても書ききれないので、
投資におけるAIの話はまた機会があれば。

(2021/11/18 奥山記)

12961 pageviews at this page since 2021/11/18 ( 774218 total page access)

 

2件のコメント

  1. 「人間だって脳のニューロンの電気信号によってるのだから、…」
    うーん…ここはまだまだ断定的にいえる科学にはなっていないと私個人は思います。

  2. 人間も個々人の中身はブラックボックスかもしれませんね、、、
    企業が採用する時は面接をしたり経歴書を見たりテストを課したり、
    だれか紹介者に確認したり・・・それでも分からないことありますから。
    AIのブラックボックスも何か面接やテストのような方法を確立して
    信頼度を判断しなくてはならないのかもしれません。
    話は違いますが、最近は個人のSNSでの過去の投稿や、購入書籍から
    思想傾向を分析されたり、それはそれで怖い話ですね。逆に言えば、
    投稿内容を「思われたい思想」に合わせることも出来てしまいます。

かめやまん へ返信する コメントをキャンセル

メールアドレスが公開されることはありません。 * が付いている欄は必須項目です

CAPTCHA