RYO SASAKI

AIを知ることは人間を学ぶことなのだ、と感じた。

タナカ シンゴ

少し前の、私のAIについてのやや懐疑的な記事。

あなたは「AI」を信じられるか?

これはAIの知識をほとんど入れないでーニュースと本一冊だけー今自分が思っていることを中心にして書いたものだった。

今回は、いくつかの書籍を読んでみて、湧いてくる思いを書くことにした。

読んでみた後の感想は、知識を入れる前の先入観なしのものとどう違うのか?

的外れなものはなかったか?

確認してみたいと思った。

シンギュラリティー(AIが人間を超える臨界点)が言われて久しい。

AIの研究者などの専門家は、AIが人間を超える(シンギュラリティーが早く実現する)と予想する群と、AIに限界があり超えられるのは一部の分野、と予想をする群とに意見が分かれている模様だ。

私は懐疑的なので、AIの課題に関する視点で情報をピックアップして考えてみたい。

AIにできること

情報をインプットしていくと、AIは非常に幅広い言葉だということがわかってくる。

人間を超えるレベルのAIから、汚れているところを見つけて掃除するロボットまで。

この書籍は、この幅のどこのレベルのAIのことを言っているのか、あるいは、2030年のことを言っているのか?2045年のことを言っているのか?2100年のことを言っているのか?

非常に目線の定め方が散漫になってしまった。

なので階層も順番も整理できていないが、興味のあるテーマをとりあえず並べるだけ並べてみる(書籍の内容に私の理解と感想を加筆したもの)。

『AIは心をもてるのか?』

→もつことは難しい。

逆の見解として、もつことができる。

心をもつAIともたないAIに分かれる。

もしAIが心をもった場合、自律させる必要がある。

自律させるということは、AI自身を優先させ、人間と利益相反になり危険がある。

自立させるということは人間にとっての隠し事ができる、ということでもある。



『AIには、精神的感覚や身体的感覚(痛みなど)をもてるのか?』

→もてない。

逆の見解として、もたせることができる。

人と人は、似たり寄ったりだから共感が起こるのであって、もしこのような感情がもてないとすると共感が起こらない。

共感があるから信頼感が生まれるのであって、感情のもてないAIに対して人間はどこまで信頼感をもてるのだろうか?

見せかけることはできる、とも言う。

精神的感覚や身体的感覚をもっているように見せるだけで人間はどこまで信頼できるだろうか?

また、精神的感覚や身体的感覚が日々更新されていくから共感が得られるものもある。

精神的感覚や身体的感覚が日々更新できるようになる(する)のだろうか?



『AIは、目標や動機を持てるのか?』

→目標や動機を自分ではもてない。

なので、人間が設定してやらないといけない。

設定した、目標や動機を、自分で変えることもできない。

設定した目標や動機毎の別々のAIが存在することになる。

逆の見解として、目標や動機を自分で学習することができて、目標や動機を変えることもできる。

ならば、AIの暴走によって恐ろしい世界になる可能性がある。



『AIは、物事を判断することができるのか?』

→できない

逆の見解でできる。

AIに判断させるためには、判断軸を設定する必要がある。

この判断軸、倫理的な軸について、AIの登竜門とも言える『トロッコ理論』というものがある。

トロッコが線路を暴走していて、この先に2つに分かれる分岐点がある。

一つの先の線路上には1人がいて、もう一つの先の線路上には、5人がいる。

その距離とスピードから、トロッコが突っ込んだ線路の人の命は助からない。

分岐点での切り替えはどう判断したらいいか?

という問題である。

トロッコ問題(Trolley problem)とは?

一般的には、たくさんの人を助ける選択ーこの例ではトロッコを1人がいる線路に切り替えることーが正しいとされるのだろう。

次は別の問題。

トロッコが同じく暴走していてその先の線路上に5人がいる。

このままだと、5人の命は助からない。

しかし、ある大男1人を線路上に落とすことによってトロッコの暴走を止めて、5人を助けることができる。

その場合、その大男の命は助からない。

この場合において、大男を線路に落とす選択をするべきか?

という問題である。

先ほどの理屈でいうとできるだけ多くの人を助けることが正解だとされていたが、今回の場合、その正解に向かっていくと殺人に手を染めることになる。

これを選択するべきではない、ということになる。

このことは判断する基準がシチュエーションによって変化する、といえる。

また、5人を助けることより、1人の殺人をしてはいけない、という判断基準には重さの違いがある、とも言える。

これはいかなる場合でも正しい基準なのだろうか?

例えば、

この大男がトロッコを生きて止めることができる、と思っていたら・・・

この大男が助けることを合意していたら・・・

この大男が死刑確定で逃亡している犯罪者だったとしたら・・・

さらに言えば、このトロッコ問題は、命が奪われることが確定している非常にシンプルな問題になっている。

現実には、線路上の人が脱出できない、とどうやって判断ができるのか?など更に複雑な要素が含まれている。

いずれにしても、このような複雑な基準をAIに設定しないと正しい判断?はできないことになる。

人間は正しい基準を持ち合わせておらず、判断を間違い、過失を起こすことがある。

AIに過失がないならば、AIに正しい基準をインプットできていることが条件になる。

正しい基準を持ち合わせていない人間が、AIに正しい基準をインプットできるのだろうか?

AIが人間が正しいと考える基準を作り出すのか?

AIがつくる基準に人間が強制されることでしか解決しないのではないのだろうか?


『AIは、責任をとれるのか?』

→自動運転が実現して事故に遭遇した場合の問題。

路上の人を轢いてしまうか、路上の人を避けて、車が壁に激突するか?いずれかの選択しかない。

車が壁に衝突した場合、車内の乗客(自動運転車の所有者)が命を落とすことになる。

当然、自動運転車の所有者=ご主人様を生かすことー路上の人を轢いてしまうことをー選択するのだろうか?

また、自動運転車の事故の責任は、自動運転車(AI)がとれるのだろうか?

責任は、自動車の所有者にあるのか?車のメーカーにあるのか?AIのソフトウェア会社にあるのか?

自律したAIならば、痛みを伴うAIが責任がとれるものなのか?

人間は犯罪を起こしてしまうものだが、刑罰があることでで抑止力になっている。

人間は、AIが感じる痛みを、人が罰を受けて刑務所で服役するような痛みと同じように捉えられるのだろうか?

更には、AIによって様々の判断がなされた時、どうしてその判断になったのか?

AIにインプットされた大量データからの判断は、複雑すぎてプロセスがわからないブラックボックスになる。

AIは裁判でプロセスを事細かに話すのだろうか?


『AIは、宗教をもてるのか?』

→宗教をもつには宗教をもつ目的を設定する必要がある。

【一般的な宗教の目的】

・苦しみの中にいる時私たちを慰め、死の恐怖を和らげること。

・宗教なしには説明できない事柄を説明すること。

・試練や敵に直面した時、集団的な共同行動を助長すること。

まず、宗教家はこの目的の論理的?な説明をそのまま同意できるのだろうか?

このことはおいておいて、この宗教の存在する目的として、人間の恐怖や不安がある。

AIに恐怖がないと人間と共感し合えないから、

「あんたは怖くないんだろうから」などとなって、人間との距離ができるのではないだろうか?

経験者だから、人のために語れることがあるのであって、説得力がないのではないだろうか?

また、人間は恐怖や不安以外に、森羅万象ー科学的に証明されていないことなどーに対して答えを知りたくなる、という好奇心をもっている。

AIは、好奇心をもった場合、それはどんな好奇心になるのだろうか?


『AIが得意な能力とは?』

→AIが得意な能力は、以下の4つ。

計算力・分析力・記憶力・論理力

これらにおいて、人間はAIにスピードや正確性でかなわない。

しかし、それ以外に人間はいろいろな能力を持っている。

交渉力・解釈力・注意力・疑問力・独創力・観察力・想像力・理解力・観察力・企画力・構想力・判断力・連想力・傾聴力・洞察力・共感力・類推力・予知力・観察力・空想力・発見力・記述力・・・・

逆の見解では、AIも創造する(手塚治さんっぽい物語を書いたとか・・・)ことができるから、創造力等もある言える。

人間はこのようにたくさんの能力をオーケストラの指揮者のように統率して生活している。

言葉の定義は曖昧だから、重なっているような能力もあるが、いろいろな能力を使っていることは何となく理解できる。

ここで今言えることは、人間が、計算力・分析力・記憶力・論理力を高める努力は、そこそこに、ということになるだろうか。

人間が、何かの問題に直面した時に、解決策として直観が立ち現れる。

これがいろいろな能力の組み合わせによって起こってくる。

AIは、たくさんの事例の記憶があり、それに照らし合わせて一つ一つを比較検討して、最適な解決策を選択する、というプロセスになるらしい。

それが高速で行われるから、直観のようなスピードで解答が出せるかもしれない。

しかし、人間の直観はこのようなプロセスではなく、最初から絞り込まれた1つ(あるいは2~3)の解決案がひらめくらしい。

このひらめきは、経験の積み重ねから起こっているという。

ある専門職(消防士などが紹介されていたが)でもベテランになればなるほど、過去の経験から解決策がひらめくらしい。

これ以上どういうしくみなのかはわからないが、この直観が人間らしさである、と書籍にはある。

<参考文献>

[itemlink post_id=”8083″]

[itemlink post_id=”8084″]

[itemlink post_id=”7974″]

[itemlink post_id=”8085″]

[itemlink post_id=”8086″]

[itemlink post_id=”8087″]

むしろ人間とは何なのか?

いろいろ考えていると、AIに関する情報インプットによって、人間について考えている自分がいることを感じた。

AIが人間とは何か?を考えるキッカケになり、そして、いろいろな疑問も生まれることになった。

ずーっと比較検討する対象のない人間だから、あまり考えないようなアプローチだ。

トロッコ問題に見られるような倫理観について、我々は世界共通の明確なルールを設定することができるのだろうか?

例えば、地球温暖化への対応として、AIが判断を下すとすれば、どんなものだろうか?

地球温暖化への判断をするには、正しい未来予想と人類の幸せのあり方の合意が必要になる。

正しい未来予想ができるのだろうか?

未来予想ができたとして、合意なんてものが、はたしてできるのだろうか?

人類の幸せが共通の目標になるとしても、自分の幸せが相手の不幸につながるものも多い。

また、人類の幸せとは、今日の幸せだろうか?10年後の幸せだろうか?100年後の幸せだろうか?

一体、どこの誰の幸せだろうか?

幸せの基準とはどこにあるのか?

更に例えば、人口増加は放置していいのだろうか?

”幸せ”というものが何か?合意形成できないと、人口増加への対応も判断できない。

こちらを取るとこちらはあきらめないといけない、というトレードオフが世の中にはいろいろと存在している。

そして、どれもあきらめたくない人間が存在している。

判断を迫られた時に、正しい判断ができない場合もある。

それはあきらめるものを決められないから、でもある。

人間は繊細にできている。

その繊細さとは別の見方をするとわがままにできている。

その繊細さを尊重して、わがままを通すと他の人に迷惑がかかるケースがある。

だから、深入りせずに、曖昧にしているものがたくさんある。

たぶん、トロッコ問題のようなことが自分の身の回りに起きないことを願っている。

一方では曖昧にしておくからいいというものもあるのだろう、とも思う。

多くは大きな問題が起こってにっちもさっちもいかなくなってから動き出すのだろう。

これに対して、AIの導入によって、曖昧にしておくことができなくなるのだろうか?

もうひとつ人間のもつ”直観”というものについて。

「ん!何かおかしい」

「何か嫌だ」

「こうしよう!」

思えば、直観は四六時中湧き上がってくる。

自分の多くが直観によって動いているように感じる。

これが、何によって生まれるものなのか?

書籍で宮本武蔵らの”心眼”というものも紹介していた。

本質を心で観ること。

ということは、「見たものはまず疑うこと」が前提にあることに気づく。

見たものに引っ張られずに、見たものから一定の距離をおくこと。

そうしておいて、湧き上がる心眼からの直観を無視せずに活かしていく。

見たものですべてを判断してしまう自分が思い出されてハッとした。

一方で直観は的外れなこともあるから、ならば修正して直観を経験として積み重ね、直観を研ぎ澄ましていく。

これが人間にとって大切だということをあらためて教えてくれているようだ。

また、人間がもっているこうなりたい、こうでありたい、という夢や目標、さらには、解決したいと思う課題の設定が、人間のもっているかけがえのないものである、ということも感じられる。

直観は、これらの目指す思いがあるから、情熱に押し出されるようにして、この実現のためにひらめくものだとも言われる。

だから、人間の持つ願望も、素晴らしいと思う。

一方では、願望の方向、種類、程度によって周りに迷惑となったり、世の中を、あるいは、地球を壊すものもあるのだが、敢えて願望は素晴らしいと言っておこう。

冒頭に戻って、私の直観(中心)の以前のAIに対する懐疑的な記事は、どこまで的外れだっただろうか?

あなたは「AI」を信じられるか?

これらの情報のインプット後でも、そんなに違和感はないと自分では評価する。

自分の直観もまんざらでもない。笑。

というか、これらの書籍を読んでも、私の直観で書いた記事の中の疑問は、一切晴れていないという結果になった。

それはそうとして、知識を入れずとも、わからないとあきらめず、とにかく今思い浮かんだものを書くこと、これは人間の直観のトレーニングのひとつなのだとも思った。

最後に、

今回は、AIを知ることは人間を学ぶことだと強く感じた。

人間に備わってる能力、当たり前のようにやっていること。

人間の神秘や、わがままで、ご都合主義で、曖昧で、矛盾だらけなところやら、人間が作った不完全な社会制度やら・・・。

とにかくいろいろな角度から人間を学ぶ。

AIは人間の照らし合わせ先になっている。

欧米はAIの研究と人間の研究(人間の能力、直観等)を並列で行っているが、日本はAIの研究だけを行っているらしい。

日本で人間にそぐわないAIが生まれる可能性を危惧している人もいる。

これからの研究の進捗も少し距離をおいて見ていきたい。

Photo by Hitesh Choudhary on Unsplash

【著者プロフィール】

RYO SASAKI

人間がAIをうまく使えるのか?結局は人間の判断によるものですね。

これも含めて、AIの出現によって人間が何たるかが問われていくのだと思います。

工学部を卒業後、広告関連企業(2社)に29年在籍。 法人顧客を対象にした事業にて、新規事業の立ち上げから事業の撤退を多数経験する。

現在は自営業の他、NPO法人の運営サポートなどを行っている。

ブログ「日々是湧日」

幅を愉しむwebメディア「RANGER」に対するご意見やご感想、お仕事のご相談など、お問い合わせからお気軽にご連絡ください。

最後まで読んでくださりありがとうございます。

これからもRANGERをどうぞご贔屓に。

記事URLをコピーしました