Pages

Thursday, August 3, 2023

AIは今後「ドラえもん型」を開発すべき納得の根拠 - ライブドアニュース - livedoor

tahupedascabe.blogspot.com


山本龍彦・慶應義塾大学法務研究科教授(左)と栗原聡・慶應義塾大学理工学部教授

インターネットの普及によって社会が情報過多になる中、人々の関心や注目の度合いが経済的価値を持つ「アテンション・エコノミー」をめぐる議論が活発化しています。「フィルターバブル」や「エコーチェンバー」現象などが問題視されることも少なくありません。

さらに対話型AI「ChatGPT」をはじめとした「生成AI」の発展により、アテンション・エコノミーはどうなっていくのでしょうか。憲法・情報法を専門とする山本龍彦・慶應義塾大学法務研究科教授と、人工知能を専門とする栗原聡・慶應義塾大学理工学部教授の対談の後編は、アテンション・エコノミーの課題と「情報的健康」についてです。

前編:「生成AI」今から活用したい人が知るべき驚く盲点

現段階のAIは使い勝手がいい代物ではない

山本龍彦(以下、山本):生成AIを効果的に使えるかどうかはプロンプトのつくり方によるとのことでしたが、今後、それを補助するAIは生まれてくるでしょうか。例えば、こちら側の感情やニーズをうまくくみとって、自動的に文章化してくれるような機能が考えられます。

栗原聡(以下、栗原):僕らもそのような研究をやっていますが、徐々にそうなっていくと思います。誰でも文章を入れるだけで“使えてしまう”ので、「人工知能の民主化だ」という言われ方もしていて、その認識は間違ってはいないものの、現段階の生成AIは、実はそんなに使い勝手がいい代物ではありません。

今後はおそらく「御用聞きAI」のようなイメージのものができていくのだと思います。ユーザーが不十分な入力をすると、「それじゃわからないから、もうちょっと違う情報はない?」のように答えるか、きちんと整ったプロンプトをつくって入力してくれる。そういう形になっていくのだろうとは思います。

山本:そこに、生成AIがアテンション・エコノミーの救世主になる可能性があるのですかね。例えば、生成AIの長い回答を15秒ほどの短尺動画にしてくれるようなAIが出てくると、アテンション・エコノミーと“整合的”ではあるけれど、少しまともな世界が訪れるかもしれない。

栗原:アテンション・エコノミーにおいては、僕らが「考えない」「自分で考える時間ないし、調べるのが大変」という状況が問題の1つとしてありました。

しかし、一瞬のうちに何かしらを調べてくれる生成AIが出てくることで、それを使いこなして、きちんとものを考えるようになる層が厚みを増す可能性はあるのだと思います。さらに、そういう人たちのなかには、皆に注目されることよりも、自分なりの意見をしっかり考えたいと思う人も、少ないと思いますが出てくると思います。


栗原 聡(くりはら さとし)/慶應義塾大学大学院理工学研究科修了。NTT基礎研究所、大阪大学産業科学研究所、電気通信大学大学院情報理工学研究科などを経て、2018年から現職。博士(工学)。電気通信大学人工知能先端研究センター特任教授、大阪大学産業科学研究所招聘教授、人工知能学会倫理委員会アドバイザーなどを兼任(写真:本人提供)

単に注目されればいいということではなくて、思慮深くすることがAIを通してフィードバックされ、それが創造性につながり、あるいは付加価値が付いて戻ってくるという仕組みが出てくれば、それこそがあるべき報酬系(欲求が満たされたときや、満たされるとわかったときに活性化し、快感をもたらす脳内のシステム)なのだと思います。

考える時間ができても、人間は考えない?

山本:ルーティンのような情報整理とか、“前さばき”をうまく生成AIにやらせれば、そこで浮いた時間を重要なことに使える。熟慮ができたり、議論が深まったりすることで、創造性が生まれることもあるわけですね。

栗原:はい。無駄な時間がなくなることで、「考える時間」ができてきますし、自分のクリエイティビティをアンプリファイ(増幅)するために使う人も出てきます。そして、それを見た周りの人も、いいなと思えば真似するでしょう。いずれにせよ今は皆、考えなくなっているというよりは、考える時間がなくなって、考えられなくなっているのですよね。

山本:ただ、生成AIの利用でういた時間を熟慮にあてるという発想は、どこかまだ人間を信じている部分があるような気がします。仮に人間も反射的な生き物だとすると、余暇ができても、それをショート動画の閲覧やスマホ・ゲームに使うとか、結局アテンション・エコノミーの世界の中で時間を消費していくだけだという見方もできるかもしれません。


山本 龍彦(やまもと たつひこ)/1976年生まれ。2005年、慶應義塾大学法学研究科博士課程単位取得退学。博士(法学)。桐蔭横浜大学法学部専任講師、同准教授を経て現職。2017年、ワシントン大学ロースクール客員教授、司法試験考査委員(2014年・2015年)(撮影:尾形文繁)

栗原:海外と比較すると、その傾向は日本において顕著のように思えるのですが、日本人に特有の何かがあったりするのでしょうか。

山本:とくにEUでは、人間が自律的・主体的な決定主体である、またはそうあるべきだという「人間中心主義」が重視されているように思います。

ヨーロッパでは、ルネサンス期にアリストテレス的な人間理性が再評価され、「神に従う世界」から、自らの理性をもって人間が決める世界へと変わっていきます。社会システムが神ないし教会中心から人間中心へと変化していくわけですね。

さらにプロテスタントの台頭により、「教会」から「個人」へ、という流れも出てきて、宗教改革や宗教戦争を経て「個人」が決めることが重視される。こうした、自らの自由意思による自己決定という考えが、近代立憲主義の基礎になっていきます。

EUには、こうした精神的な革命の歴史がある。だから、AIの利活用が広がって、個人の自律的で主体的な意思決定が浸食され、人間が自ら考えなくなること、人間が再び非中心的な存在になることへの強い抵抗感があるのではないかと思います。

現在、世界のAI倫理原則などで強調されている「人間中心」は、こうした歴史的文脈を無視できないのではないか。日本のAI原則でも「人間中心」が説かれるのですが、本質的な理解が足りていないように感じます。

アライメントの施されていないAIが誰でもつくれる怖さ

山本:生成AIによってアテンション・エコノミーを悪化させる可能性についてもお聞きできればと思います。例えば「フェイクニュース」や「エコーチェンバー」。このあたりと生成AIはどう関係してくるでしょうか。

栗原:技術的な観点で言うと、いま注目されている生成AIはしっかり人間が調整(アライメント)していて、ある程度“保証付き”なので、そうそう変なことは起きないですし、技術も進んで間違いも減っていくでしょうから問題はありません。

では何が問題かというと、生成AIはオープンな技術を使っているので、小さな規模のものであれば誰でもつくれてしまうということです。

例えば「ハッキングするための文章をつくるためだけ」の生成AIや、「誰かを攻撃するためだけ」や「個人情報を抜き取るためだけ」のAIだって、つくろうと思えばつくれるわけです。もちろんそういうものは、アライメントはまず施されてはいないのです。

そうすると何が起きるかというと、社会を混乱に陥れようとする人や、プロパガンダをつくろうという人たちも出てくるでしょう。それにフェイクニュースですよね。

今でもBotが使われていますが、生成AIを使ってより“秀逸”なBotをつくり、意図的にフェイクニュースをつくって垂れ流すということが起こりえます。そうしてネット上に散乱してくる情報をまたAIが学習することで、負のループが完成してしまうのです。

山本:生成AIを使って情報の“津波”を起こせるということですね。生成AIによって、人間がつくったかのようなプロパガンダやフェイクニュースがつくれる。またそれを一気に情報空間に送り込める。その情報汚染は、次第に善意の生成AIにも影響を与え、われわれのコミュニケーションをミスリードしていく。そうして情報の“津波”を起こし、情報空間を大混乱に陥れることができるということですよね。

栗原:そうなるともう、民主主義は見事に壊れてしまいます。

山本:そうですね。人間によるアライメントの部分でも、「透明性」や「説明責任」が乏しいと、怖い面が出てきます。どういう目的で調整したかがわからないと、「きれいな回答に見えるが、実は特定の価値観がかなり反映された回答になっている」ということを認知できない。

栗原:そうですね。おっしゃるようにそこは、データの透明性やしっかりしたアライメントなど、確実に起きたことをトレースできるようにしておくといったガイドラインはあっていいのではないでしょうか。

道具タイプのAIはフィルターバブルを助長する

山本:今後、個々のユーザーが生成AIをチューニングしていく方向性もあると思いますが、その場合、生成AIがフィルターバブルを助長するようにもなるでしょうか。

栗原:AIが現在の“道具”のタイプである限り助長することになる可能性が高いと思います。生成AIが個人適応すれば、ユーザーが「自分が好きな情報だけをレコメンデーションしてもらう」ようAIに問いかければ当然好きな情報しか集まらず、フィルターバブル度は高まります。結局は人間が「だらけて」しまうことになりかねません。

先日『ドラえもん』を見ていて面白いストーリーがありました。

そのお話では、言うことを聞いてくれないドラえもんに不満たらたらで「なんとかして」と言うのび太に対して、ドラえもんが、「よし! 最新型の人工知能を出す」と言って今風のAIロボットを出しました。

何でも言うことを聞いてくれるので、のび太が「ドラえもんなんかより、こっちのほうがいいや」とか言うとドラえもんはどこかに行ってしまいます。それで何が起きるかというと、のび太はだらけてしまって、最後には定番のしっぺ返しを食らうわけです。

今の人工知能は「道具」、つまり人が命じるままに動くものです。そういう意味で、もしも個人適応が実装されたとしたら、フィルターバブルがどんどん進みます。それはさすがにまずいので、やはり必要なのは、上記のように、のび太の言うことをたまに聞かないこともある「ドラえもん型」なのだと思います。

「ドラえもん型」と「道具」の違いは、自律性・能動性があるかどうかです。そして、自律性を持つAIには自ら能動的に動作するための動機・目的が埋め込まれていることが必要です。目的というか、いわば「考えるためのタネ」です。もちろん僕らがそのタネを与えます。

例えば、「多様性を育むような情報を提供して」とか、「相手のことをきちんと考えて行動して」といったことを、それこそ憲法のようにAIの目的として組み込んでおくのです。そうすれば、その“ドラえもん”のような自律型AIは、膨大な情報の中から不要な情報を除去したうえで、今はどんな情報を与えればいいかを考えてくれます。それは必ずしもその人が好む情報ではないかもしれません。

これは、親が子どもに向き合うときと同じ態度・目線です。例えば「暑いときにジュースばかり飲んだら体によくないから、今は我慢させよう」と考えるのと同じように、現時点の道具である生成AIにおいてもそのような機能を拡張したい僕は思っています。

ドラえもんがイヤな情報を提示できる理由

山本:まさに「情報的健康」(編集部註:東京大学・鳥海不二夫教授と、山本龍彦氏が共同で提言した「デジタル・ダイエット宣言」内で言及されている、日常の情報摂取を食事に例えた概念)の話ですよね。

栗原:まったくそのとおりです。ただこの課題は、ではそれをどう解決するか、というところで議論が止まってしまうことです。今の道具(生成AI)だと正直解決は難しい。もちろん情報にさまざまなメタデータを付けてもいいのですが、今度はそれを誰がどうやって使って情報のフィルタリングをするのかという問題が出てくる。

山本:そうですね。

栗原:それに、イヤな情報、つまり個人にとって好ましいものではない情報が次々に提示されるようになったら、もうそのような生成AIは使われなくなってしまいますし。

ではなぜドラえもんはのび太にとってイヤな情報を提示できるのでしょう? それは、のび太がドラえもんを心から信頼しているからです。

「道具」であれば、100%言われたとおり動かなければ僕らは信頼しませんが、この信頼は制御可能性に対する信頼です。これに対して、子供は「イヤなこと」も言うけれど自分の親を信頼しています。それは「親が決して自分から搾取しているのではなく、回り回って自分のためにしていることなんだ」ということを理解しているからです。

そういう意味で、僕らが本当に「信頼」できる人工知能が登場すれば、「その信頼できる人工知能が言ってくるんだから、その情報も我慢しよう。ちょっとイヤだけど聞こうか」となると思います。そしてそれは「道具型」の人工知能ではできないことなのです。

山本:情報的健康というプロジェクトの1つの具体的実装として、そのようなAIをつくっていくことが考えられますが、今のビジネス構造の中だとなかなか難しいですよね。

自分が好む情報、要するにアイスクリームが食べたければアイスクリームをレコメンドしてくれるような仕組みのほうが結局エンゲージメントは高まるし、アテンションを得られます。

現状のビジネス、つまりアテンション・エコノミーのビジネス構造の中だと、どうしてもそちらに流れていってしまうのではないか。「中長期的に見れば、あなたにとって利益になる」という情報提供のあり方をビジネスモデルとしてどう成り立たせるのか。私はそのためには、社会的規範を醸成していくことが重要だと考えています。

情報摂取行動についても社会的規範を醸成する

山本:昔は「肉ばかり食べていてもいい」と思われていたのが、「野菜もバランスよく食べよう」と考えられるようになってきた。しかし、本人の“欲望”としては肉を食べたいわけですから、それは短期的には自己利益に反するわけですね。

でもわれわれの多くは、食育などのリテラシー教育もあって、その“欲望”を抑えてバランスよく食べよう、となってきた。こうした社会的規範を情報摂取行動についても醸成していかなければならないと思うんです。そうすれば、ビジネス構造も変わるかもしれない。

ユーザーの欲を刺激して情報を“偏食”させるアルゴリズムをつくっている企業は信頼を失い、市場でも批判されていく。逆に、「ドラえもん型」で、ユーザーの情報的健康を考えて多様な情報を提供する企業は信頼を得て、市場で優位に立つようになる。

栗原:食べ物で偏食すれば、ほんとに体を壊すじゃないですか。肉体的な苦痛を伴うからこそ、僕らは是正するわけですよね。しかし、情報の場合は違います。

例えばいわゆるエコーチェンバーが進んだときに、回り回っていろいろな悪影響が表出してくるわけですが、それらが「情報的に偏ったものを摂取していたからだ」と短絡的に結びつくとはいえないわけです。

山本:そこは重要ですよね。ですので、まずはその「結びつき」をしっかり実証し、可視化する必要があると思います。

先日、先生の研究室が開催している勉強会で、若い方が「自分の情報摂取傾向を可視化できるアバターをつくったらどうでしょうか」と発言されているのを聞いて、とても面白いと感じました。例えば、特定の情報ばかりを摂取していると、自分のアバターがどんどん太っていく。で、最終的にパタリと倒れてしまう……。

アバターが倒れてしまうと、運転免許証更新の際に受ける講習ではないですが、リテラシー動画を見ないとSNSのサービスが使えなくなるとか、何らかの不利益とリンクさせる。

そうすると、「アバターをなんとか健康な状態にしておこう」「そのために、いろいろな情報に当たってみよう」というモチベーションが生まれます。表現の自由との関係に細心の注意を払いつつですが、そのような連関がつくれるといいかなと思いました。

栗原:そうですね。情報の偏りというネガティブなものが、具体的に可視化などできるといいですよね。

最後は個人の自律的で主体的な判断を尊重すべき

山本:はい。ただ、注意しなければならないのは、個々人に情報的健康を強制できないという点です。憲法論からすると、究極的には、自分が好きな情報ばかりを摂取する自由は否定できません。

「健康」をスローガンに特定の情報を押し付けたり、特定の情報を遮断したりするのは憲法上の権利の侵害になるし、民主主義にとっても大変危険です。食べ物だって、あれを食べろとか、これを食べるな、と“強制”することはできない。最後は個人の自律的で主体的な判断を尊重すべきです。

第三者ができるのは、健康になりたいと願う人に適切な情報を提供し、健康に向けた取り組みをナッジ(行動科学の知見から「自分自身にとってよりよい選択」を自発的に取れるように手助けするアプローチ)していくことなのだと思います。

(山本 龍彦 : 慶應義塾大学大学院法務研究科教授)
(栗原 聡 : 慶應義塾大学理工学部教授)

Adblock test (Why?)


からの記事と詳細 ( AIは今後「ドラえもん型」を開発すべき納得の根拠 - ライブドアニュース - livedoor )
https://ift.tt/aLrhVTF

No comments:

Post a Comment