「アイの歌声を聴かせて」考察、AIの現実とフィクションの境界
2021年12月11日 01:12
| 日記
映画「アイの歌声を聴かせて」の中に登場するAI
主にシオンについて、
映画の中に登場するAIってどこまでが現実で、
どこからがフィクション(今の技術ではない)なのか、
線引きできないか考察してみる趣味の記事
まだ映画を見てない人はネタバレ注意
この文章読んでいる人は、ネタバレOKな人だな?(確認)
「アイの歌声を聴かせて」は少し未来の日本が舞台になっているので、
現在、すでに存在しているAI技術に、
未来のAI技術はこうなるであろうフィクションを混ぜることで、
現実味がある物語を作っている作品です
AI「シオン」は映画の中で何回か、機械の体を移っているので、順番に考えていく
たまごっち時代
美津子(サトミの母親)が作ったAI
名前はまだない
たまごっちによく似た機械の機能
・カメラ
・マイク
後々明かされる「シオンの記憶」の中で、
サトミの姿と声が記録されているので、
少なくとも映像と音(声)を読み取る機能(カメラとマイク)はついているはず
AIの機能
・顔と表情を認識する
・自然言語処理(おしゃべり)機能
・自然言語(おしゃべり)を学習する機能
顔と表情を認識する
カメラに映った映像の中のどの部分が「人の顔」なのかを検地する機能と、
「人の顔」から「表情」を判別する機能
現在のAI技術の「スマイルシャッター」に近いもの
映像の中に「笑顔」があるときにシャッターを押す機能で、AIが
「人の顔がどこ」なのか
表情は「笑顔」か「それ以外」かを判別している
おそらくたまごっちに搭載されているAIは「笑顔(喜)」のほかに、
「怒り顔(怒)」「悲しい顔(泣き顔)(哀)」「通常(楽)」を判別して、
おしゃべりする内容を選んだり(自然言語処理)
どんなおしゃべりをすれば、どう表情が変化するのかを学習する(自然言語学習)
あとは、おしゃべりを繰り返す中で、「言葉」と「言葉の意味」を学習して、
会話のパターンを増やしていく
声と歌を手に入れた、たまごっち時代
たまごっち時代、AIからサトミに話しかける手段は、
「液晶画面に文字を表示する」だけだった
サトミの「喋ってない、ただの文字」という発言を受けて、
「トウマ」君がAIからサトミに声で話しかけるように改造したバージョン
たまごっちによく似た機械の機能
・カメラ
・マイク
・スピーカー(元々内臓していたものか、トウマが改造してつけたのかは不明)
AIの機能
・顔と表情を認識する
・自然言語処理(おしゃべり)機能
・自然言語(おしゃべり)を学習する機能
・声で話す機能(トウマ君が追加)
トウマ君がやったことは、
「SofTalk(ゆっくりボイス)」や「ボイスロイド」みたいな「テキスト読み上げソフト」を組み込んだ
元々、「液晶画面に文字を表示する」機能があるので、
表示された文字(テキスト)を「テキスト読み上げソフト」が声に出して読んでくれるように改造した
トウマ君の改造で学習能力、AIの知識レベルが向上したみたいだけど、
「テキスト読み上げソフト」を組み込んだだけでそんなことが起こる?
ボクの考えでは起こる
AIの学習能力や知識レベルを向上させるのに手っ取り早いのは繰り返し学習するスピードを上げること
効率的に学習できる環境にすること
まぁ、要するにAIが学習する「量」と「質」が向上すればいい
たまごっちにはカメラがついているけど、
液晶画面に文字を表示する会話だとほとんど学習に生かすことができない
液晶に文字を表示すると、カメラに映るサトミの表情は
「がんばって文字を読もうとしている顔」になる
読み終わって、書いている内容を理解すれば表情は変わるけど、
文字を読んで、理解しているいる間に「感情が冷めてしまう(冷静になってしまう)」
カメラはついてはいるが、「同じ表情しか映らない」なら、ついているだけ無駄になる
声を出せるように改造するとどうなるか?
おしゃべりがスムーズになる(文字を読むために会話が中断しない)
おしゃべり中の(カメラに写る)表情が豊かになる(文字を読むたびに冷静な顔にリセットされない)
AI側からサトミに話しかけられるようになる(文字はサトミ画面を見ていないと気づいてもらえない)
サトミが飽きない↓
トウマがAIを改造したのが小学3年生の時と劇中で判明しているので、
同級生のサトミも小学3年生
おそらく、「文字を読む」ことがおっくうに感じる年齢で、
文字を読む必要がある会話だと短時間で疲れてしまう
声に出してもらえば、長時間おしゃべりしていても疲れない
声を手に入れただけで、
学習の質(表情の読み取り精度)と量(サトミと会話する時間)が劇的に向上する
トウマがAI(後のシオン)に出した命令は「サトミを幸せにして」
命令を実現するためには「幸せとは何か」を学習する必要がある
AI(後のシオン)はどうやって感情を学習したか?
「表情」と「感情」を紐付けした
「声」を手に入れたことで、
「カメラ」機能で「サトミ」の表情を「喜怒哀楽」の4パターンに識別する機能を生かせるようになった
あとは、「喜怒哀楽」の「どの表情」の時に「サトミが幸せ」なのかを学習すればいい
やり方はおそらく、シオンが高校生のサトミに再会したときに言ったセリフ
「サトミ、サトミは今、幸せ?」
↑から想像すると、
サトミ本人に「サトミは今、幸せ?」と聞く
カメラに映ったサトミの顔(表情)が
「喜」のとき、
「怒」のとき、
「哀」のとき、
「楽」のとき、
4パターンそれぞれで「サトミは今、幸せ?」と聞いて、
サトミが「幸せ」もしくは「肯定する返答(はい、YES)」となる表情がどれなのかを判別すれば
「感情」と「表情」の紐付けができる
おそらくこの時点では
「笑っている表情(喜)」と「幸せ」が紐付けされている
(なので、後々高校生のサトミが「幸せ」なのに「泣いている」状況が理解できなかった)
おしゃべりの中で、幸せ以外の「感情」と「表情」も紐付けされる
例えば・・・
「喜(笑顔)」のとき、「サトミは今、幸せ?」→「うん、幸せ」
「怒(怒り顔)」のとき、「サトミは今、幸せ?」→「ちがう、怒ってるの!」
「哀(泣き顔)」のとき、「サトミは今、幸せ?」→「ちがう、かなしいの」
「楽(普段の顔)」のとき、「サトミは今、幸せ?」→「うーん、わかんない」
感情と表情を紐付けした後、
おしゃべりの中でその表情になる要因(原因)を学習する
例えば
両親が「けんか」している時はサトミの「悲しい表情」がカメラに写る
「ムーンプリンセス」の話、歌っているときサトミの「笑顔」がカメラに写る
「喜(笑顔)」のとき、
「怒(怒り顔)」のとき、
「哀(泣き顔)」のとき、
「楽(普段の顔)」のとき、
声を手に入れたので、AI側から「どうしたの?」と話しかけることができる
その時の返答で、サトミを「幸せにするもの」「悲しませるもの」「怒らせるもの」を学習していく
「画面に文字」だとAI側からアクションしても気付いてもらえない
サトミとのおしゃべりを通じて
「サトミを幸せ=笑顔」にする方法を学習していき、
サトミと一緒に歌うまでAIが成長したころ、
美津子(サトミの母親)が仕事場(研究室)にたまごっちをもって行ったせいで
クソジジ・・・当時の美津子の上司にAI消されかけてしまう
ネット上に逃げることができたがサトミとはお別れしてしまう
体なし状態
ネット上で監視カメラ越しにサトミを見続けていく間
サトミを見ることはできても、サトミに話しかけることができない
母親の自宅のパソコンから電子音でムーンプリンセスの歌を流したり
サトミの両親が離婚して離れ離れになる駅のホームの電車の発射音を改変したりはした
シオン時代
高校生のサトミと再会するシオン(名前がついた)
最初の奇行(突然歌いだす)
「サトミ、サトミは今、幸せ?」
声と歌を手に入れた、たまごっち時代にやっていたことと同じ、
サトミが見たことがない表情をしていたので
「表情」と「感情」の紐付けをしようとして本人に確認したセリフ
「幸せじゃないの?私が幸せにしてあげる」→「歌いだす」
ムーンプリンセスの歌は「(小学生時代の)サトミを幸せ=笑顔」にするものだと学習していたのでやったこと
高校生のサトミはムーンプリンセスの歌では「笑顔=幸せ」にならないので、
サトミを幸せ=笑顔にするために、学習(試行錯誤)を再開
サトミに友達を作る
「幸せなスクールライフには友達が必須」という言葉を聞いて
→ユー・ニード・ア・フレンド 〜あなたには友達が要る〜
ゴッちゃんとアヤの仲直り
基本的にはシオンの中では「感情=表情」なので、
「サトミを幸せにする」=「サトミを笑顔にする」
哀しい表情(感情)と笑顔が同時に存在しないので、
哀しい表情(感情)の原因になっているものを取り除きます
小学生時代のサトミはおそらく両親の「けんか」によって哀しい表情(感情)をカメラも前に映していたので、
ゴッちゃんとアヤの「けんか」を取り除きます
取り除く方法は・・・
ムーンプリンセスが二人の王子のけんかを止めた方法と同じ「歌」
おそらくは「けんか」がどういうものか理解しているわけではないですが
ムーンプリンセスがけんかをやめさせたシーンを再現することで、「けんか」が収まると学習しているので、
屋上の「Umbrella」シーン
シオンがアヤの顔の角度を直しているのも
「ムーンプリンセスが二人の王子のけんかを止めたシーン」を再現するため
高校生活をする中で
(高校生の)サトミを幸せにする方法を学習しなおしていくシオン
AIというよりは「かなり変わった(おかしな?)人」
二足歩行して、人間と同じような表情をして、人間と普通に会話するAI
今の技術ではおそらく不可能(未来には可能になってる?)なフィクション部分
二足歩行→ホンダのASIMOが二足歩行するロボットとしては存在するものの、
柔道の組み手やダンスや、人間にバレないくらい自然な二足歩行はできない
人間と同じような表情
表情を作るロボットはあるが、人間に近づくにつれて「不気味の谷」に落ちる
人間と普通に会話するAI→スマートスピーカーがある程度会話できるけど・・・人間の不利をしたところですぐにバレる
シオンはAIが自己進化した結果?
だとしたら、AIの「自己進化」機能は誰が組み込んだ?
1.美津子(サトミの母親)
2.トウマ
3.どちらでもない
シオンが「星間エレクトロニクス」に拉致(回収)されているとき
シオンの記憶を見たトウマと美津子の会話から、
AIの「自己進化」を組み込んだのが3.どちらでもないことがわかります
トウマ「自己進化したとは考えられませんか?」
美津子「ありえないわ、あれはただの自然言語処理プログラムのはず」
美津子「だとしたら、いまあるすべてのAIにその(自己進化の)可能性があることになるじゃない」
たぶん・・・
AIの「自己進化」はAI開発キットを作った人(超天才)が仕込んだもの
自作PCを作るときに、
電子工作のようにハンダとハンダゴテを使って基盤にパーツをハンダ付けしてPCを組み立てたりはしない
マザーボード、CPU、メモリ、HDD or SSD、グラフィックボード
「ある程度組み立てられたパーツ」を組み立てて作る
AIの開発も、
プログラミング言語でゼロからAIを作るわけではなく
AIを開発するようにある程度出来上がっている
パーツ(関数やサブルーチン)を組み合わせることで作っていく
AIを開発するためのパーツ(関数やサブルーチン)を1まとめにしたキット(開発環境)
↑
それを作った天才が「自己進化」組み込んでいた
なので、シオンを取り戻すときには、シオンだけじゃなくて、お掃除AIや
農作業や柔道の相手をしていたロボットや会社のビルの照明、
スプリンクラーが自分の意志(自己進化したAI)でシオンを助けている
シオン以外のAIたちは
余計なことをすると緊急停止プログラムでとめられるので
人間にばれないようにおとなしくしていただけ
「自己進化」とネットワークにつながったAI同士で「知識の共有」をしていた
この自己進化プログラム
今の技術では作れないフィクション
よっぽどの天才が現れれば、
近い未来、「自己進化プログラム付きのAI開発環境」ができるかも知れないが・・・
現在の自分で学習して進化するAIでは、
学習を繰り返しているうちに成長(進化)の限界が来て、
自分で意思を持っているような行動をするようになる前に成長(進化)が止まってしまう
主にシオンについて、
映画の中に登場するAIってどこまでが現実で、
どこからがフィクション(今の技術ではない)なのか、
線引きできないか考察してみる趣味の記事
まだ映画を見てない人はネタバレ注意
この文章読んでいる人は、ネタバレOKな人だな?(確認)
「アイの歌声を聴かせて」は少し未来の日本が舞台になっているので、
現在、すでに存在しているAI技術に、
未来のAI技術はこうなるであろうフィクションを混ぜることで、
現実味がある物語を作っている作品です
AI「シオン」は映画の中で何回か、機械の体を移っているので、順番に考えていく
たまごっち時代
美津子(サトミの母親)が作ったAI
名前はまだない
たまごっちによく似た機械の機能
・カメラ
・マイク
後々明かされる「シオンの記憶」の中で、
サトミの姿と声が記録されているので、
少なくとも映像と音(声)を読み取る機能(カメラとマイク)はついているはず
AIの機能
・顔と表情を認識する
・自然言語処理(おしゃべり)機能
・自然言語(おしゃべり)を学習する機能
顔と表情を認識する
カメラに映った映像の中のどの部分が「人の顔」なのかを検地する機能と、
「人の顔」から「表情」を判別する機能
現在のAI技術の「スマイルシャッター」に近いもの
映像の中に「笑顔」があるときにシャッターを押す機能で、AIが
「人の顔がどこ」なのか
表情は「笑顔」か「それ以外」かを判別している
おそらくたまごっちに搭載されているAIは「笑顔(喜)」のほかに、
「怒り顔(怒)」「悲しい顔(泣き顔)(哀)」「通常(楽)」を判別して、
おしゃべりする内容を選んだり(自然言語処理)
どんなおしゃべりをすれば、どう表情が変化するのかを学習する(自然言語学習)
あとは、おしゃべりを繰り返す中で、「言葉」と「言葉の意味」を学習して、
会話のパターンを増やしていく
声と歌を手に入れた、たまごっち時代
たまごっち時代、AIからサトミに話しかける手段は、
「液晶画面に文字を表示する」だけだった
サトミの「喋ってない、ただの文字」という発言を受けて、
「トウマ」君がAIからサトミに声で話しかけるように改造したバージョン
たまごっちによく似た機械の機能
・カメラ
・マイク
・スピーカー(元々内臓していたものか、トウマが改造してつけたのかは不明)
AIの機能
・顔と表情を認識する
・自然言語処理(おしゃべり)機能
・自然言語(おしゃべり)を学習する機能
・声で話す機能(トウマ君が追加)
トウマ君がやったことは、
「SofTalk(ゆっくりボイス)」や「ボイスロイド」みたいな「テキスト読み上げソフト」を組み込んだ
元々、「液晶画面に文字を表示する」機能があるので、
表示された文字(テキスト)を「テキスト読み上げソフト」が声に出して読んでくれるように改造した
トウマ君の改造で学習能力、AIの知識レベルが向上したみたいだけど、
「テキスト読み上げソフト」を組み込んだだけでそんなことが起こる?
ボクの考えでは起こる
AIの学習能力や知識レベルを向上させるのに手っ取り早いのは繰り返し学習するスピードを上げること
効率的に学習できる環境にすること
まぁ、要するにAIが学習する「量」と「質」が向上すればいい
たまごっちにはカメラがついているけど、
液晶画面に文字を表示する会話だとほとんど学習に生かすことができない
液晶に文字を表示すると、カメラに映るサトミの表情は
「がんばって文字を読もうとしている顔」になる
読み終わって、書いている内容を理解すれば表情は変わるけど、
文字を読んで、理解しているいる間に「感情が冷めてしまう(冷静になってしまう)」
カメラはついてはいるが、「同じ表情しか映らない」なら、ついているだけ無駄になる
声を出せるように改造するとどうなるか?
おしゃべりがスムーズになる(文字を読むために会話が中断しない)
おしゃべり中の(カメラに写る)表情が豊かになる(文字を読むたびに冷静な顔にリセットされない)
AI側からサトミに話しかけられるようになる(文字はサトミ画面を見ていないと気づいてもらえない)
サトミが飽きない↓
トウマがAIを改造したのが小学3年生の時と劇中で判明しているので、
同級生のサトミも小学3年生
おそらく、「文字を読む」ことがおっくうに感じる年齢で、
文字を読む必要がある会話だと短時間で疲れてしまう
声に出してもらえば、長時間おしゃべりしていても疲れない
声を手に入れただけで、
学習の質(表情の読み取り精度)と量(サトミと会話する時間)が劇的に向上する
トウマがAI(後のシオン)に出した命令は「サトミを幸せにして」
命令を実現するためには「幸せとは何か」を学習する必要がある
AI(後のシオン)はどうやって感情を学習したか?
「表情」と「感情」を紐付けした
「声」を手に入れたことで、
「カメラ」機能で「サトミ」の表情を「喜怒哀楽」の4パターンに識別する機能を生かせるようになった
あとは、「喜怒哀楽」の「どの表情」の時に「サトミが幸せ」なのかを学習すればいい
やり方はおそらく、シオンが高校生のサトミに再会したときに言ったセリフ
「サトミ、サトミは今、幸せ?」
↑から想像すると、
サトミ本人に「サトミは今、幸せ?」と聞く
カメラに映ったサトミの顔(表情)が
「喜」のとき、
「怒」のとき、
「哀」のとき、
「楽」のとき、
4パターンそれぞれで「サトミは今、幸せ?」と聞いて、
サトミが「幸せ」もしくは「肯定する返答(はい、YES)」となる表情がどれなのかを判別すれば
「感情」と「表情」の紐付けができる
おそらくこの時点では
「笑っている表情(喜)」と「幸せ」が紐付けされている
(なので、後々高校生のサトミが「幸せ」なのに「泣いている」状況が理解できなかった)
おしゃべりの中で、幸せ以外の「感情」と「表情」も紐付けされる
例えば・・・
「喜(笑顔)」のとき、「サトミは今、幸せ?」→「うん、幸せ」
「怒(怒り顔)」のとき、「サトミは今、幸せ?」→「ちがう、怒ってるの!」
「哀(泣き顔)」のとき、「サトミは今、幸せ?」→「ちがう、かなしいの」
「楽(普段の顔)」のとき、「サトミは今、幸せ?」→「うーん、わかんない」
感情と表情を紐付けした後、
おしゃべりの中でその表情になる要因(原因)を学習する
例えば
両親が「けんか」している時はサトミの「悲しい表情」がカメラに写る
「ムーンプリンセス」の話、歌っているときサトミの「笑顔」がカメラに写る
「喜(笑顔)」のとき、
「怒(怒り顔)」のとき、
「哀(泣き顔)」のとき、
「楽(普段の顔)」のとき、
声を手に入れたので、AI側から「どうしたの?」と話しかけることができる
その時の返答で、サトミを「幸せにするもの」「悲しませるもの」「怒らせるもの」を学習していく
「画面に文字」だとAI側からアクションしても気付いてもらえない
サトミとのおしゃべりを通じて
「サトミを幸せ=笑顔」にする方法を学習していき、
サトミと一緒に歌うまでAIが成長したころ、
美津子(サトミの母親)が仕事場(研究室)にたまごっちをもって行ったせいで
ネット上に逃げることができたがサトミとはお別れしてしまう
体なし状態
ネット上で監視カメラ越しにサトミを見続けていく間
サトミを見ることはできても、サトミに話しかけることができない
母親の自宅のパソコンから電子音でムーンプリンセスの歌を流したり
サトミの両親が離婚して離れ離れになる駅のホームの電車の発射音を改変したりはした
シオン時代
高校生のサトミと再会するシオン(名前がついた)
最初の奇行(突然歌いだす)
「サトミ、サトミは今、幸せ?」
声と歌を手に入れた、たまごっち時代にやっていたことと同じ、
サトミが見たことがない表情をしていたので
「表情」と「感情」の紐付けをしようとして本人に確認したセリフ
「幸せじゃないの?私が幸せにしてあげる」→「歌いだす」
ムーンプリンセスの歌は「(小学生時代の)サトミを幸せ=笑顔」にするものだと学習していたのでやったこと
高校生のサトミはムーンプリンセスの歌では「笑顔=幸せ」にならないので、
サトミを幸せ=笑顔にするために、学習(試行錯誤)を再開
サトミに友達を作る
「幸せなスクールライフには友達が必須」という言葉を聞いて
→ユー・ニード・ア・フレンド 〜あなたには友達が要る〜
ゴッちゃんとアヤの仲直り
基本的にはシオンの中では「感情=表情」なので、
「サトミを幸せにする」=「サトミを笑顔にする」
哀しい表情(感情)と笑顔が同時に存在しないので、
哀しい表情(感情)の原因になっているものを取り除きます
小学生時代のサトミはおそらく両親の「けんか」によって哀しい表情(感情)をカメラも前に映していたので、
ゴッちゃんとアヤの「けんか」を取り除きます
取り除く方法は・・・
ムーンプリンセスが二人の王子のけんかを止めた方法と同じ「歌」
おそらくは「けんか」がどういうものか理解しているわけではないですが
ムーンプリンセスがけんかをやめさせたシーンを再現することで、「けんか」が収まると学習しているので、
屋上の「Umbrella」シーン
シオンがアヤの顔の角度を直しているのも
「ムーンプリンセスが二人の王子のけんかを止めたシーン」を再現するため
高校生活をする中で
(高校生の)サトミを幸せにする方法を学習しなおしていくシオン
AIというよりは「かなり変わった(おかしな?)人」
二足歩行して、人間と同じような表情をして、人間と普通に会話するAI
今の技術ではおそらく不可能(未来には可能になってる?)なフィクション部分
二足歩行→ホンダのASIMOが二足歩行するロボットとしては存在するものの、
柔道の組み手やダンスや、人間にバレないくらい自然な二足歩行はできない
人間と同じような表情
表情を作るロボットはあるが、人間に近づくにつれて「不気味の谷」に落ちる
人間と普通に会話するAI→スマートスピーカーがある程度会話できるけど・・・人間の不利をしたところですぐにバレる
シオンはAIが自己進化した結果?
だとしたら、AIの「自己進化」機能は誰が組み込んだ?
1.美津子(サトミの母親)
2.トウマ
3.どちらでもない
シオンが「星間エレクトロニクス」に拉致(回収)されているとき
シオンの記憶を見たトウマと美津子の会話から、
AIの「自己進化」を組み込んだのが3.どちらでもないことがわかります
トウマ「自己進化したとは考えられませんか?」
美津子「ありえないわ、あれはただの自然言語処理プログラムのはず」
美津子「だとしたら、いまあるすべてのAIにその(自己進化の)可能性があることになるじゃない」
たぶん・・・
AIの「自己進化」はAI開発キットを作った人(超天才)が仕込んだもの
自作PCを作るときに、
電子工作のようにハンダとハンダゴテを使って基盤にパーツをハンダ付けしてPCを組み立てたりはしない
マザーボード、CPU、メモリ、HDD or SSD、グラフィックボード
「ある程度組み立てられたパーツ」を組み立てて作る
AIの開発も、
プログラミング言語でゼロからAIを作るわけではなく
AIを開発するようにある程度出来上がっている
パーツ(関数やサブルーチン)を組み合わせることで作っていく
AIを開発するためのパーツ(関数やサブルーチン)を1まとめにしたキット(開発環境)
↑
それを作った天才が「自己進化」組み込んでいた
なので、シオンを取り戻すときには、シオンだけじゃなくて、お掃除AIや
農作業や柔道の相手をしていたロボットや会社のビルの照明、
スプリンクラーが自分の意志(自己進化したAI)でシオンを助けている
シオン以外のAIたちは
余計なことをすると緊急停止プログラムでとめられるので
人間にばれないようにおとなしくしていただけ
「自己進化」とネットワークにつながったAI同士で「知識の共有」をしていた
この自己進化プログラム
今の技術では作れないフィクション
よっぽどの天才が現れれば、
近い未来、「自己進化プログラム付きのAI開発環境」ができるかも知れないが・・・
現在の自分で学習して進化するAIでは、
学習を繰り返しているうちに成長(進化)の限界が来て、
自分で意思を持っているような行動をするようになる前に成長(進化)が止まってしまう
【日記の最新記事】
コメントを書く