こどもアバター研究室No.1: プライバシー研究会レポート:AIとルール
はじめまして。はたけやまきみえです。アバター・ロボット・AIについて研究(けんきゅう)するプロジェクトのメンバーです。このプロジェクトのリーダーは慶應義塾大学(けいおうぎじゅくだいがく)で法律(ほうりつ)を研究している新保史生(しんぽふみお)先生です。
アバター・ロボット・AIの研究チームのリーダーが法律の先生って、ちょっとあたらしいでしょう?わたしたちの研究をこどもみなさんにも知ってほしくて、このシリーズを始めることにしました。
今回は、AIやロボットのルールについて研究している世界中(せかいじゅう)の研究者(けんきゅうしゃ)弁護士(べんごし)さん、大学生などが集まって、勉強会を開きました。どんなことを話し合ったのか、みなさんにお話ししますね。

インターネット上で、よくない言葉や他の人の気持ちを考えない強い意見を言わないようにすることについて、ロンドン大学のエリック・ハインズ先生がとても大切なことを教えてくれました。
先生が言ったのは、「悪い言葉には、良い言葉で返すことができる」ということです。たとえば、誰かがいじわるな言葉を書いたときに、それを消すだけでなく、「そういう言い方は人をきずつけるよ」とか「もっとやさしい言い方があるんじゃないかな」というように、みんなで話し合って考えることもできるんです。
これは、インターネットの世界でアバター(自分の分身(ぶんしん)のキャラクター)を使って話すときにも、とても大切なことです。ただ投稿(とうこう)を消したり追い出したりするだけでなく、みんなで「どうやったらみんなで仲良く話せるかな?」と考えることが大切だということです。
オーストラリアのルカ・マン先生も、AIのルールについて大切なお話をしました。
今、世界中でAI(人工知能)を作るときの「やってはいけないこと」や「気をつけること」のルールがあります。でも、このルールには問題があるんです。
どんな問題かというと、今のルールは主にヨーロッパやアメリカの考え方で作られていて、世界のほかの地域(ちいき)の大切な考え方があまり入っていないんです。
例えば、ニュージーランドに住むマオリの人たちには、自然や人とのつながりについて、とてもすてきな考え方があります。AIを作るときに、マオリの人たちの考え方も大切にすれば、もっと良いAIができるかもしれません。
つまり、「世界にはいろんな考え方があって、それぞれが大切だよ」ということを、AIを作るときにも忘れちゃいけないんです。AIのルールも、世界中のいろんな人の考え方を聞いて決めた方がいいよ、ということなんです。
みなさんはどう思いますか?