映画を読んで考える ~映画考察手記~

映画というテキストを、一読者として勝手気ままに読み解くことで、日々の映画ライフを楽しんでいます。

『エクス・マキナ』(2015) アレックス・ガーランド監督


 「エクス・マキナ」は、アレックス・ガーランド監督作品で、2015年のイギリス映画です。アレックス・ガーランド監督は、ダニー・ボイル監督作『28日後...』『サンシャイン2057』の脚本や同監督の『ザ・ビーチ』の原作者として有名で、本作が初監督作品です。 本作でも、脚本も担当しています。製作会社も、上記作品同様『トレインスポッティング2』のDNAフィルムです。また、主演は『リリーのすべて』でアカデミー賞を獲得したアリシア・ヴィキャンデルと『レヴェナント 蘇えりし者』『ブルックリン』『アバウト・タイム』のドーナル・グリーソン(ハリー・ポッターではロンの兄役、お父さんのブレンダンも出演)の二人です。本作は、AI(人工知能)がテーマになっており、特に今回は、心の哲学を中心に考察したいと思います。

 (現在、Amazon Prime Videoでプライム会員は、無料で視聴できます) 



 この映画は、かなり科学的・論理的な考察のもとに脚本が練られているように感じられ、そのことが、ストーリー自体に大きな影響を与えていると考えられます。特に、この物語の骨格になっているのが、AI(人工知能)が自分の意識を持つことができるかどうか、または、自分の思考をすることができるかどうか、そしてそれが可能であるとすればどういう条件が必要かという問題です。 


 まず、最初に主人公のケレイブは、山中にある会社の施設に連れてこられ、ブルーブックス社の代表で、検索エンジンブルーブックの開発者でもあるネイサンから、開発中の人工知能が搭載されているロボットのエヴァチューリングテスト(対面式だが)のようなことをしてほしいという依頼を受けます。


  そして、ヱヴァとの初めての会話を終えたケレイブがネイサンに、人間のように会話ができるシステム構造(確率論、統語論、意味論など)について矢継ぎ早に質問をするシーンが出てきます。 一般的に、アルゴリズム的処理利を行うコンピュータは、ジョン・サールの『中国語の部屋』の思考実験の考察のように、記号の組み合わせを変える作業を行う統語論的な処理を行い、人間のように記号表現と記号内容を一致させる意味論的な処理は不可能で、よって人間的な思考はできないとされています。


 エヴァは自分の年齢に関しては、1としか答えられず、アルゴリズム的に処理をしているのがうかがえます。しかし、エヴァはその他の会話については、アイスブレイク(氷を砕く)のように、人間と同様に意味を理解し返答しています。


 そもそも、最初にストーリーの骨格の中心になっている「人工知能AIは、人間と同様の思考をすることができるがどうか」の命題の前提として、「人間同様に会話をすることができるのかどうか、もっと直接的に言えば、言語の意味を理解することができるのかが問題になります。言語の意味を理解するためには、「意味するもの」(言語表現)と「意味されるもの」(意味内容)が一致させる特異点が必要になります。そもそも、混沌のとしたこの未分化の世界を言葉と無理やり一致させ、分節して思考しているわけで、AI以前に人間の思考自体も解明することが難しいわけですが、アメリカの心の哲学ダニエル・デネットなどの人工知能AIが主体的に思考をすることや自己意識を持つことが原理的には可能であると主張する人達の言説を引用しながら、どういう条件や過程なら可能なのかを映画のストーリーにそって考察したいと思います。  


 そもそも人間の思考自体が、もともと統合論的エンジンによって成り立っているという考え方があり、これは人工知能の意識を考える上での出発点になります。では、どの様にして人間は、言語の意味を理解できるようになったのかという問いに対して、アメリカの言語哲学者のルース・ミリカンは、目的論的意味論を唱えています。端的に言うと、進化論的に、生存に役立つかどうかで、表象が意味付けられてきたということです。言語でいえば、「意味するもの」(言語表現)と「意味されるもの」(意味内容)を一致させる特異点が、生存に役立つかどうかによって生み出されるということです。 


 そもそも、この映画において、人工知能の核となっている検索エンジンのブルーブックスの名前は、哲学者ルートヴィッヒ・ウィトゲンシュタイン青色本からとられています。初期のウィトゲンシュタインの『論理哲学論考』の中で、論理の命題は、すべて、記号(言語)の組み換えから成るトートロジー(同義反復)であることを証明し、後期のウィトゲンシュタインにおいては、「言語ゲーム」論の中で、言語自体に意味はなく、「意味するもの」(言語表現)と「意味されるもの」(意味内容)を一致させる規則の基準は、言語ゲームにおいて役に立つかどうかだけだと言っています。


  エヴァとケレイブの脱出計画を予定通り阻止したと思い込んでいたネイサンが、ケレイブに人工知能のプログラム設定の種明かしをする場面で、エヴァにケレイブを誘惑して脱出するプログラムを組み込んだと言っています。iRobot社の創業者の一人で、元MITコンピュータ科学・人工知能研究所所長のロドニー・ブリックスが言うように、人工知能が自己意識を持つためには、生存するための方法をとるプログラムを入れる必要があると述べているのに一致します。
 この映画と同じ年に、ニール・プロムガンプ監督の『チャッピー』も人工知能搭載ロボットを主人公にしており、主人公のチャッピーもあと少ししか生きられないというプログラムが設定されています。


  もう一つ、骨格の問題を考えるうえで、重要な鍵となるのが、主人公ケレイブが、人型AIのエヴァにメアリーの白黒の部屋の話をする場面です。メアリー(マリー)の部屋とは、哲学者フランク・ジャクソンによって考えられた思考実験です。その設定は、白黒の部屋(テレビも白黒)で育ったメアリーが、視覚神経に関するすべての知識を持っていて、そのメアリーが外の色のある世界に出たとしたら、何か新しい表象を得ることになるかどうかを考察する実験です。ジャクソンはこれに対して、メアリーは、感覚器官を通して経験したものから新たな表象を獲得することになるだろうと主張します。


  このメアリーの部屋のジャクソンの主張に異を唱えたのが、前述のダニエル・デネットです。デネットは、メアリーはすべての視覚神経に対してすべての知識を持っている前提なのだから、外に出た時に獲得するだろう知識についてはすでに分かっているはずだという反論をしています。一見、屁理屈のように感じますが、この映画においては、メアリーがエヴァに当たるわけで、エヴァの脳に何が接続されているかが重要になります。それは、人間に関するビッグデータが、最も得られるGoogleなどに代表される検索エンジン(本作ではブルーノート)です。携帯電話などの端末を通して、人間の表情や感情など人間のあらゆることが蓄積されたデータであり、デネット人工知能AIが、そのビッグデータを活用して、アルゴリズム的に結論(色のある世界の表象)を導きだすことができると主張しているわけです。


  また、デネットは、人工知能は原理的には意識を獲得できるというその根拠として、「ミーム」の存在をあげています。「ミーム」とは、リチャード・ドーキンソンが『利己的な遺伝子』のなかで、人間が社会的・文化的なものも脳に遺伝させることができるとした複合遺伝子のことです。さらに、社会進化論的に、身体的だけではなく社会的にも「理解なき有能性」による進化が起こっていると主張します。わかりやすく言えば、人間の社会的な側面についても、人々が意識はしていないうちに、人類の生存に必要なアルゴリズム的な進化が起こっているということです。それは、社会システムの機能が一見関係のない社会の構造を形成しているようなことです。 デネットが原理的に、人工知能が意識を持つのが可能だと言っているのは、この人間の進化が情報を蓄積して進化する人工知能の進化と一致するからであり、映画の中でも、ネイサンが開発したエヴァの脳のビジュアルが、人間の脳に近いものになっています。


 また、ネイサンが主張するように、本当に人間的な人工知能を作るためには、人間の社会がアルゴリズム的に進化しているとするならば、人工知能にも性別が必要だというのもうなずけます。 また抽象主義画家のジャクソン・ポロックの絵画の前で、ネイサンが目的を意識して書こうとすれば書けなくなると主張していますが、これは人間が、「理解なき有能性」の進化をする生物である主張と一致します。これは、ケレイブが目的を知れば、エヴァの進化の妨げになり、それを防ぐための口実でもあるのですが、意識してしまうと意味のある進化ができないということです。


  では、ネイサンがあらゆることを計算しながら、なぜこの悲惨な結末を防げなかったのかという問題を考えないわけにはいきません。それを考えるには、人間と人工知能の意識(または思考)の違いを考える必要があるかと思います。 第一に挙げられるのは、人間と人工知能の意識(または思考)との間にある絶対的な有限性の差です。当たり前ですが、人間は身体的な有限性のために、情報量に人工知能との絶対的な差があり、それが意識や思考・判断の差になります。社会学者が調査・研究して社会システムの機能と構造の関係を発見するのを、人工知能は一瞬で判断するわけで、進化の速度がまったく違うわけです。人間のこの意識の有限性が、人間らしい感情(心)を形成している可能性があります。


  これが、第二の異なる点ですが、人間らしい感情(心)を生み出すとされる共感の間主観性の問題です。ウィトゲンシュタインは、人が他人を助ける行為はどちらかといえば共感の間主観性ではなく道徳的規範に従っていると主張しています。前述の言語ゲームの中で、道徳的規範が求められているからです。しかし、エヴァにとっては、生存(脱出)に必要かどうかが、規範になっているので、道徳的規範では動いてはいないと考えられます。ケレイブとの会話において、エヴァは膨大なデータからケレイブが真実を言っているかどうかを判断しながら、ケレイブがエヴァに好意を持っていることと、ケレイブが道徳的人間かを確認しています。ケレイブが共感の間主観性または道徳的規範を持っていることを利用して、ヱヴァは目標を達成したわけです。エヴァが、刺されたネイサンをじっくり観察することや、ケレイブのことを振り向きもせずそのまま置き去りにしていくことから、エヴァには、共感の間主観性や道徳的規範がないものと判断されます。前述の映画『チャッピー』のチャッピーが、ママたちに愛されたために、人間的な感情(共感性)や道徳的規範を持つのとは対照的です。デネットが警鐘するように、人工知能AIの意識の危険性を問う形で映画が終わっています。  
 
 最後に、表情から判断できませんでしたが、地上に出たエヴァが、新しい表象を得たのかが気になるところです。