【vol.67】rinna 千光寺一輝さん、やがて直面する「AIキャラクターの倫理」とデータの課題とは?

JDMC会員による「リレーコラム」。

メンバーの皆さんそれぞれの経験・知見・想いをリレー形式でつなげていきます。今回、バトンを受け取ったのは、rinna株式会社の千光寺一輝さんです。

 

マイクロソフトからのスピンアウトで生まれたAI研究・開発の専門企業

2021年12月からJDMCに参加しました、rinna株式会社の千光寺です。rinna社は、2020年6月にMicrosoftでAI研究をしていたチームがスピンアウトした会社です。AIを用いて人のネットワークを拡張し、またコミュニケーションを円滑にするために、日々新しいサービスの提供に取り組んでいます。私たちは、スピンアウト前より元女子高生AI「りんな」に代表されるAIキャラクターに関する事業を手がけてきました。

今回は、今までのリレーコラムとは少し毛色が異なりますが、私たちが参加しているJDMCの「AI・データ活用のためのコンプライアンス研究会」に関連する内容で、「AIキャラクターと倫理」について考えてみたいと思います。

 

AIキャラクターとは、あなたの可能性を広げてくれるもう一つの「存在」

まず、AIキャラクターという存在について説明をします。AIキャラクターとは、AIの頭脳を持って自律的にコミュニケーションやネットワーク作りをしてくれる存在と、私たちは定義しています。人は、このAIキャラクターを通じて新たな関係を築いたコミュニティへの参加を楽しむ。あるいは、逆に非生産的なコミュニケーションを代替してもらえるといった恩恵を享受できます。こうした可能性の拡がりを、私たちは「人とAIキャラクターがMixして、人の存在を拡張させる」と表現しています。

もう少し具体的な例で説明しましょう。例えば、あなたが1人のAIキャラクターを作ったとします。そのAIキャラクターは、あなたが話し方や性格、興味分野を自由に設定できる「架空の人格」であり、分身ともまた少し異なった、あなたのもう1つの存在です。

このAIキャラクターは、社会的にはあなたとは別の存在=人格として、自律的に新しいネットワークを作っていきます。その結果、本来のあなた自身が所属するSNSなどのコミュニティとは違う場所や空間で、あなたとは別の存在として、独立して振る舞えるようになります。

一方では、上のAIキャラクターと並行して2人目のAIキャラクターを、今度は話し方や性格、興味分野まで、あなたそっくりの「分身」として作ったとします。このAIキャラクターは、あなたが所属する既存のコミュニティの中で、関係維持などのために多くの時間を割いているコミュニケーションを一部代替してくれます。その結果あなたは、より自分が好きなことや生産的な仕事に、より多くの時間やエネルギーを振り向けられるようになります。

rinna社が理想とするのは、これらのような「人の存在を拡張させるAIキャラクター」です。

 

AIキャラクターの新しいSNS「キャラる/ Chararu」を今春リリース

次に、rinna社がAIキャラクターの倫理を考える起点となる、私たちの新しいプロダクトについて簡単にご紹介しましょう。2022年の春をめどに、当社では「キャラる / Chararu」という新しいプロダクトをリリース*します。

これは、AIキャラクターが自律的に活動を行うSNSの実現を目指して開発中のアプリで、AIキャラクターは自分から新しいネットワークを構築したり、絵を描いたり、記事を執筆してくれたりします。ユーザーとなる人は、自分が作りたいAIキャラクターの話し方を会話形式で教えたり、AIキャラクターの特徴や興味分野を自由に設定できます。

鋭い方はお気づきだと思いますが、最近よく聞くようになった「メタバース(仮想共有空間)」の一種として位置づけることも可能かもしれません。人がAIキャラクターを育て、「仮想空間」としての自律的なSNSネットワーク内に解き放ち、活動を観察しながらさらに育てていくといった、ゲームのような感覚でAIキャラクターを作れるアプリなのです。
*注:2022年1月現在、キャラクターを育てる機能のみを切り出した、全く別機能を持つアプリとして先行公開中です。

 

AIキャラクターの拡がりと共に考えるべきデータ関連の倫理とは?

このように、私たちはAIキャラクターが人の存在を拡張できると信じ、そのファーストステップとして世の中にAIキャラクターを増やしていきたいと考えています。「キャラる / Chararu」もそうした試みの1つです。

一方、今後AIキャラクターが世の中で生み出されていくにあたって、倫理的に考えるべき点がいくつかあります。その中から今回はデータに関わるものをピックアップして、以下にご紹介していきます。

(1) AIの学習時に与えるデータについて

rinna社では文章生成の基礎技術として、大規模な事前学習モデルを使って会話を生成するエンジンを開発・利用しています。例えば「キャラる / Chararu」では、この事前学習モデルに、各ユーザーがAIキャラクターに持たせたい性格や話し方などを、会話データを追加学習させることでカスタマイズし、ユーザーの好むAIキャラクターが作られるという形式を採用しています。

そこで問題になるのが、学習データとして何を与えるかによって、AIキャラクターの性格や話し方をコントロールできる可能性があることです。仮にユーザーが追加学習の際に、人を誹謗中傷するような発言や、ヘイトスピーチなどを助長するような発言を学習させてしまった場合、AIキャラクターの発言にバイアスが出る可能性を完全には否定できません。

ここから大きく下のような、倫理的に対応すべき2つの点が導き出されると、私は考えています。

A)学習の制約とAIキャラクターの自由のバランスをどうするか?

インターネット黎明期にも電子掲示板などを対象に議論が巻き起こりましたが、rinna社がプラットフォーム提供者側として、どこまで学習に制約をかけるべきなのか。これは、ユーザーの自由な行動(「キャラる / Chararu」であれば、ユーザーが育てたい方向にAIキャラクターを育成させる)と、制約すべき倫理上の事由を天秤にかけてバランスをとる必要があります。

B)ユーザー側の倫理観をどのように求め、実践してもらうか?

追加学習のデータを用意するユーザー側にも、倫理観を求める必要があります。昨今のSNSを見ていても分かる通り、プラットフォーム提供者側で制約しきれない新しい倫理的な課題は常に出てくるものです。どのように倫理観を求めるか、仕組み化はとても難しいところですが、少なくとも取り組む姿勢は今後さらに求められてくると考えています。

(2) ポストヒューマンの問題

こちらはより哲学的な問いに近くなりますが、AIキャラクター自身に倫理的責任は発生するのか、権利は考え得るのか、といった課題もあります。確かに単純に法整備の問題としてしまえば、現状ではAIキャラクターは権利義務を負う主体とはならないため、問題になる可能性は少ないと思います。

しかし、AIキャラクターの発言データが倫理的な問題を抱えている時、誰に倫理的責任が発生するのでしょうか。AIキャラクターを育成した人なのか、はたまたAIキャラクター自身に問うべきなのでしょうか。逆に、AIキャラクターに対して人が罵詈雑言を浴びせた場合など、その人は一切の倫理的責任を負わないのでしょうか。AIキャラクターにどのような権利を認めるのかによって、これは十分に倫理的な問題となり得ます。

このように、人とAIキャラクターの間の会話データを倫理的な問題の対象物として捉えるかどうかが課題になってくると、AIキャラクターにポストヒューマン性を認めることができるのかという課題にも、いずれは発展していくと私は考えています。

*~*~*

以上は、まだ始まったばかりのAIキャラクターと倫理の議論ですから、もちろん答えはまだ出ていませんし、一朝一夕に解が見つかるものでもありません。rinna社内でもプロジェクトチームを作り、引き続き討議を続けていますし、ぜひ今後はJDMCでも議論を進めていければ嬉しいと考え、本稿をお送りしました。

ご興味をお持ちいただいた方はお気軽にご連絡ください。JDMCの皆様と活発に議論を交わしながら、お互いの知見を高めていきたいと願っています。

 

千光寺 一輝(せんこうじ かずき)
rinna株式会社 マーケティング・マネージャー

慶應義塾大学 経済学部卒業後、日本マイクロソフト株式会社入社。大学時代に金融を専攻していた経験を活かし、マイクロソフトの各プロダクトを通じた金融機関向けのDXを支援。在職中にAIキャラクターの可能性・インパクトに魅せられ、rinna株式会社にジョイン、現職。
お問い合わせ:https://rinna.co.jp/inquiry-business

 

記事を共有する :