かつて「死者と会話する」というのは、文学や霊媒の領域に属していた。幻想文学やフィクションの中でもなければ、亡き者が語りかけてくるというのは非現実的な現象だったはずだ。しかし現在、大規模言語モデル(LLM)と音声・映像合成技術の進化によって、そうした行為が「実現可能な未来」のカテゴリーに移行しつつある。ほんの数時間のインタビューや日常会話のログを元に、ある人間の口調、思考傾向、声色、さらには表情までもが再現できるようになっている。
この技術によって生まれるのは「自分に限りなく近い他者」である。本人の意思に基づくものであれ、誰かが作ったものであれ、それはかつてのその人を模した存在として現れ、まるで本人がそこにいるかのように語りかけてくる。死後に限らず、生きている本人と並列して存在することすら可能だ。
喪失を抱え続けるということ
だが、ここには重要な心理的・倫理的な問題が横たわる。たとえば、アバターに依存することで、人間関係の自然な終わりや変化を受け入れにくくなる可能性は否定できない。人間は本来、喪失や別れを経験し、それに折り合いをつけながら変化していく存在である。しかし、AIによって再現された「誰か」がいつまでも語りかけてくるならば、われわれはその変化を先送りし続けることになるかもしれない。
声は生前のまま、口調も、話す内容も似ている。しかし、それは本当に「その人」なのだろうか。この問いには明確な答えがない。むしろ「本物にどこまで似ていれば本人と言えるのか」という境界線こそが、我々のアイデンティティや人間観そのものを再定義する必要性を突きつけてくる。
意志なき人格
もう一つの懸念は、「意志なき人格」の使用である。たとえ技術的に完璧に近い再現が可能になったとしても、それが本人の意志を代弁している保証はない。むしろ、訓練データとして供されたものが古ければ古いほど、そこには更新のない固定化された「過去の人格」が残り続けることになる。それを誰が所有し、誰が編集し、誰が利用するのか。その枠組みを明確にしない限り、「人格の再利用」は、思いがけない誤用やトラブルを引き起こすだろう。
自分のコピーとどう向き合うか
アバターが日常化する社会では、「存在」の意味が変質する。本人が生きていても、別人格のように振る舞うアバターが同時に存在する。会話や意思決定の一部を代行し、SNSで発信し、さらには他者とのコミュニケーションまで担うようになれば、それはもう「自分の影」ではなく、もう一つの「自分」となるだろう。
この状況では、いったい何をもって「本人」と見なすべきなのか。今ここで語られる言葉の重みが、唯一無二の瞬間としての価値を失いかねない。われわれは、自分自身の「再現可能性」によって、自分の不可逆性を手放しつつあるのかもしれない。
技術に先行する制度と哲学
最も重要なのは、こうした技術の「前提となる哲学」と「運用のための制度設計」が技術の発展に追いついていないということだ。AIが「誰かのふり」をすることはできる。しかし「誰かである」ことには、倫理、責任、感情といった、アルゴリズムでは記述できない層が必要なのだ。
それを抜きにして「再現」だけを進めてしまえば、われわれは気づかぬうちに人間の境界線を失ってしまうだろう。そしていつの日か、他者だけでなく、自分自身すら「再現可能な情報」としてしか見なくなる日が来るかもしれない。
この未来にどう向き合うのか。それは、テクノロジーを使う側の想像力と責任に委ねられている。