ロボットが人の感情を理解するのではなく、人がロボットに感情移入するのです


ソフトバンクが、人の感情を理解するロボット「Pepper(ペッパー)」を発売しました。人との会話に特化したロボットのようです。興味深い取り組みです。しかし、本当にロボットが人の感情を理解できるものなのでしょうか? 実はこの問題、1900年初頭から議論されているものです。かれこれ100年以上にわたる難問です。もし「Pepper」が真に人の感情を理解していたら、それこそ世紀の大発明ですね。

機械か人か、判断するテスト

パソコンと手
1905年、イギリスの数学者アラン・チューリングは、「機械は考えられるのか(理解できるのか、心を持つのか)」、「考えられるとしたら、それをどのように判定すればよいのか」ということを研究しました。その結果として発案されたものが「チューリング・テスト」と呼ばれているものです。概要は、次の通りです。

2人の人間A・Bと、機械(コンピュータ)を用意します。Aの前には、画面とキーボードがあります。Aはそれを使って文章を入力し、相手と会話をします。つまり、文字による会話です。Aと会話をしているのは、Bか機械かのいずれかとなります。

Bも機械も、Aからとても離れた場所にいて、Aが直接目にすることはできません。Aは、自分の前の画面に映し出された文字しか見えません。今、自分Aにメッセージを送っているのが、人間Bなのか機械なのかは、目の前の文章を通してしか判断できません。

このような設定で、かなり高い確率でAが機械を「人間Bだ」と判定するようであれば、その機械は「考えられる」と判断してよいというのがチューリング・テストです。

「かなり高い確率」という表現はあいまいですが、おおむね50%程度だといわれています。要はAが「この相手、人間か機械か分からんよ」と思っている状態だということです。50%というと低いようにも感じられますが、会話を繰り返しているとたいていは「こいつ、人間じゃないな」と分かるものです。機械の方が「人間か機械か分からん」と思わせることは、かなり高度なことなのです。

機械に演説をさせたり、名文を書かせたりといった一方的な作業だったら、それほど難しくはありません。しかし、生身の人間と会話をさせることは極めて困難です。なぜなら、人間の話題は、常にあっちこっちに飛ぶものだからです。人間は「非論理的」なのです。

しかしコンピュータの方は「論理的」です。プログラム(数学)で動くものだから当然です。初めは人間の話に合わせることができても、どんどん飛躍していく論理に最後はついていけなくなります。また、人間同士の会話では、自分が知らない単語を使われたときも、その意味を相手に確認して話を進めていけなくてはなりません。つまり学習することが必要なのです。

非論理的な話の展開を自分の中で論理的に判断し、常に学習をしながら会話ができてこそ、「考えられる」と認定されるわけです。このチューリング・テストに合格した機械は、まだありません。

機械は、心を持つことができません

インターフェイス
ちなみに、とても「いい線」までいったシステム(コンピュータ・プログラム)はあります。マサチューセッツ工科大学で計算機科学を研究していたジョセフ・ワイゼンバウム名誉教授が開発した「イライザ」というプログラムです。

これは精神分析医のカウンセリング手法を真似たものでした。例えば、Aが「きょうは、なんだかイライラするんだよ」と言うと、イライザはその言語を組み換えて、「あなたは、なんだかイライラするというわけですね、きょうは」と答えるのです。

精神分析医やカウンセラーは、自分の意見は言わないで、患者自らに考えさせるような会話をします。患者は、自分で自分の悩みを解決していくのです。そもそも、「悩んでいる」ということは、「自分で答えを知っている」ということの裏返しであることが多いのです。無意識の世界に埋もれた答えを引き出してあげるのが、精神分析医やカウンセラーの役割なので、こういう会話をするのです。

ですからイライザの相手をした人間Aが、抱えていた悩みを解決してしまった例もあります。でも、やはり最後には「これは機械だ」と見破られてしまったのです。機械が人間のようになることは、困難なのです。

ロジャー・ペンローズという数学者は、「機械が人間の心のようなものを持つことはない」と語っています。それはクルト・ゲーデルという数学者が唱えた「不完全性定理」から言えることなのだそうです。

不完全性定理とは、ごくごく簡単にいうと、「数学が無矛盾である限り、数学は自らの無矛盾性を自分では証明できない」となります。ぼくら人間は「数学というものには矛盾がない」と分かっているのに、数学を使ってそれが証明できないというわけです。

禅問答のようですが、要は「数学の正しさは、数学で証明できませんよ」、「数学にも限界があるんですよ」ということです。このことをゲーデルは、「数学を使って証明」してしまったのです。1930年のことです。これが不完全性定理です。それまでは「数学を使って何でも証明できる」と信じていた数学界が、不完全性定理の登場で大きなショックを受けたことは言うまでもありません。

数学者であるペンローズは、この不完全性定理を用いて「機械は心を持つことができない」ということを示したわけです。

数学にも限界があるということは、コンピュータにも限界があるということです。だって、コンピュータは数学によってプログラミングされて動くわけですから。

しかし、非論理的な「人の心」は、数学に支配されていません。論理的に考えたら「どうしてあんなことをやっちまったんだ」という失敗をすることもあります。逆に、論理抜きの直感で、最善の方策を見つけたりもします。人間は、「数学は矛盾がないこと」も知っています。数学では証明できないことを、人は理解しているわけです。

つまり、数学だけで動く機械(コンピュータ)は、非論理的であり数学を超越した「人の心(考える力、理解する力など)」と同等のものを持つことは、決してできないというのがペンローズの主張なのです。

それでも、機械は人を癒すことができます

ロボット
「Pepper」の公式サイトには、次のように記されています。

Pepperには表情と声からその人の感情を察する最新のテクノロジー(感情認識機能)が備わっています。人間だって相手の気持ちをしっかり理解できるわけではないので、なかなか完璧とまではいきませんが、あなたが悲しんでいるときに励ましてくれたり、あなたが嬉しいときに一緒に喜んでくれたり、そんな存在になれることを目指しています。

サラリと説明していますが、かなり本質的な部分を突いています。「人間だって相手の気持ちをしっかり理解できるわけではない」という点です。

確かにその通りです。ぼくらは、「相手の気持ちが理解できている」と思い込んでいますが、相手が本当にそのような気持ちなのかどうかは、実は分からないものです。ですから、時には思わぬトラブルに発展することもあります。良かれと思って行った言動が、相手を傷つけてしまうこともあります。

イライザにだまされかけた人間Aも、機械を人間だと思い込んでしまいました。その結果、自分の悩みを解決できたことは良かったです。思い込みも、吉と出るか凶と出るか、分からないものです。

ともかく、Pepper自らが主体的な意志をもって、何かを考え、判断しているわけではありません。「こういう表情を見たら、こういう言葉を使え」、「こういう言葉には、このように返せ」といったPepperを動かす論理的なプログラムがあるのです。それが機械、コンピュータというものです。

学習機能もあるそうですから、人間の子どものように成長していくように見えるでしょう。でもそれは、単なるプログラムのバージョン・アップにすぎません。真の意味で学習し、ぼくら人間を理解し、考え、言葉をかけてくれるわけではないわけです。

ぼくは何も、Pepperを批判しているわけではありません。その逆です。こういうものは、どんどん開発されていくべきだと思います。ロボットが人間を理解していなくても、ロボットの動作で人間が癒されることはあるからです。

ペットもそうです。動物たちが人間の心を理解して、人間を喜ばせようとしているわけではありません。エサがほしいから、しつけられた通りにしているだけ、といったことにすぎないのです。

わが家は亀を飼っていますが、一挙手一投足に癒されます。亀は単に、腹が減ったからエサを探して泳ぎ、体温調整・代謝・殺菌のために甲羅を干し、疲れたから眠っているだけです。でも、その仕草にぼくらは「こいつ、これこれ、こう思っているのかなあ」と考え、癒されるのです。亀は何も考えていなくても、ぼくらが勝手に感情移入しているのです。

Pepper効果も同じでしょう。動物とはまた違った楽しみ方が期待できます。こういう「おもちゃ」は、どんどん開発してほしいものです。できれば、もっと安くして。198,000円では、ぼくら貧乏人には手が出ません。とほほ・・・。


コメントを残す

メールアドレスが公開されることはありません。 が付いている欄は必須項目です

*