慶應義塾大学法学部法律学科教授
慶應義塾大学法学部法律学科教授に関連する発言20件(2025-05-22〜2025-05-22)。登壇議員1人。関連する会議録を横断的に参照できます。
最近のトピック:
技術 (27)
問題 (20)
規制 (20)
我々 (16)
開発 (16)
発言一覧
| 発言者 | 肩書 | 院 | 日付 | 会議名 |
|---|---|---|---|---|
| 大屋雄裕 |
役職 :慶應義塾大学法学部法律学科教授
役割 :参考人
|
参議院 | 2025-05-22 | 内閣委員会 |
|
お答えいたします。
まず一つに、学習されない権利を一般的に認めるべきではないと考えます。それは、例えば我々が物を書きます。それは世間の方々からはいろんな御意見があり、御批判を頂戴する、あるいは長大な反論論文を書かれるというようなことはありますが、それを受けて立つことが言論をする者の責任であるというふうに考えております。表現をするということは、それを見られるということは当然含意されているはずだと思うわけですね。したがって、一般的に、それが他者に利用されない権利みたいなものを考えることは困難であると思うわけです。
ただし、一つは、先ほど意見を申し上げた際にも言及いたしましたが、競合製品を作るために使われると。例えば、仮に手塚治虫先生にしておきますが、手塚治虫の作品を学習して偽手塚治虫をつくって、しかもその作品を金で売りさばくというような利用法がなされるのは不適切であるわけで、このような
全文表示
|
||||
| 大屋雄裕 |
役職 :慶應義塾大学法学部法律学科教授
役割 :参考人
|
参議院 | 2025-05-22 | 内閣委員会 |
|
お答えいたします。
村上参考人がおっしゃった安全と安心の違いということを前提として、二点ほど考えられようかと思います。
一つは、ある種のバイアスがやはり報道から生じるであろうと。つまり、システムというのは異常動作が起きたときだけ報道されますので、かつての体感治安の問題と同じでございます。
事件が起きると報道される、そのために、犯罪は周りで増えているというふうに思う方はそれなりに市民の中で多いわけですが、実は犯罪は統計としては減り続けているわけですよね。このような形で、やはり、詳しくない方ほど、技術的な実情というのを余り理解しないままに不安感が高じているというところは一つあるのだと思っております。
もう一つは、AIという言葉で何を想像しているのかというところにずれがあるだろうと思っております。
そもそも、AIという言葉を正確に定義するのは各種の行政文書が全て失敗しているの
全文表示
|
||||
| 大屋雄裕 |
役職 :慶應義塾大学法学部法律学科教授
役割 :参考人
|
参議院 | 2025-05-22 | 内閣委員会 |
|
ありがとうございます。
個人情報保護の世界で申し上げますと、やはり明確な悪用を意図している事業者とか個人がおるということを前提に我々は法規制を考えていかなければいけない、いわゆる名簿屋問題などがそれに当たると思っております。
他方で、AI技術についていいますと、例えば人類を滅ぼす結果を生み出すようなAIを開発しようとする事業者というのがどこにいるかと考えると、余りいなさそうなんですね。先ほど申し上げましたが、やはり基本的には、事業者は、我々が喜んでその事業者の提供するサービスを使ってお金を落としてくれることが大好きなのであって、そのようなウィン・ウィンのインセンティブを持っていると考えることができます。
ただ、それにしても、こういう問題についてはきちんと注意しなさいよというその安全性検証の枠組みを提供していくことは重要なわけですけれども、第一義的には、彼ら自身が自らの商売に真面
全文表示
|
||||
| 大屋雄裕 |
役職 :慶應義塾大学法学部法律学科教授
役割 :参考人
|
参議院 | 2025-05-22 | 内閣委員会 |
|
ありがとうございます。
各事業者には、基本的には適切な人材を採用したいというインセンティブがあると思います。なので、不合理な差別については競争環境の中で淘汰されていくということが期待できようかと思います。
他方で、ダイバーシティー・アンド・インクルージョンが最も適切な例だと思いますけれども、過去の経緯で例えば男女間に効率の差が生じてしまっているけれども、それは本来不当なのであるというケースがあり得ようかと思います。そのような場合には、逆にAIを利用することによって効率的な採用が行われた結果、既存の差別が拡大再生産されるということになりかねないというのは事実であります。
これについては、結果に対する監査をやるという方向しか恐らくは対策はないわけでして、それを第三者機関でやるのか、あるいは、ある種の監査AIみたいなものでやることを義務付けるとか、あるいは、そういう点に注意して採用活
全文表示
|
||||
| 大屋雄裕 |
役職 :慶應義塾大学法学部法律学科教授
役割 :参考人
|
参議院 | 2025-05-22 | 内閣委員会 |
|
二点お答えいたします。
一つ目は国際協力の点でございますが、意見の中で言及いたしましたAI開発ガイドライン、総務省のものですね、これには実は国際的議論のためのという言葉がくっついておりまして、ちゃんと英語に訳して世界に向けて発信をしたと。その後の働きかけもあって、実はOECDガイドラインの制定に大きく貢献したという実績がございます。
このような形で、実はこれまで、この分野において日本は、先駆けて日米欧の協力のフレームワークをつくり、ある時期までは中国もその協力のフレームワークに応じてくれるというところまでは持っていった実績がございますので、引き続きその貢献をすべきだということがここに示されておるのだと思いますが、一方で、村上参考人御指摘のとおり、ずっと同じ人間がやっておるではないかというのも事実でございまして、私もそろそろ疲れてまいりましたので、やはり先ほど申し上げたように、次世代
全文表示
|
||||
| 大屋雄裕 |
役職 :慶應義塾大学法学部法律学科教授
役割 :参考人
|
参議院 | 2025-05-22 | 内閣委員会 |
|
AIは機械ですので、例えば一定のデータを学習させて、そうですね、解答例を十個出してみよとか、違うパターンでバラエティーを持たせて百個作ってみろと言われたら作ると思います。
問題は、その中でどれが最も良いとか、相対的に良いという評価をAIはなし得ないということで、なので、まさに生成AIとはそういうものなわけですが、作るだけ作らせるというところまではAIでいいものが出せる、あるいは少なくともやれることはやれる、それを評価するところがまだ人間にしかできていないというのがお答えになろうかと思います。
|
||||
| 大屋雄裕 |
役職 :慶應義塾大学法学部法律学科教授
役割 :参考人
|
参議院 | 2025-05-22 | 内閣委員会 |
|
コンピューター自体は、あるいはAIというプログラム自体は、その書かれたとおりにしか動きません。
問題は、我々人間がこう動いてほしいなという思いをプログラムという形で記述するわけですが、そこがパーフェクトではないということですね。つまり、いわゆるバグという問題が起きて、それはコンピューターの誤動作だというふうに我々はつい表現してしまうのですが、プログラムは正常に動作しているんです。人間の表現が間違えたのですね。そのような問題はAIについても常に起こり得ます。
|
||||
| 大屋雄裕 |
役職 :慶應義塾大学法学部法律学科教授
役割 :参考人
|
参議院 | 2025-05-22 | 内閣委員会 |
|
基本的にはそのようなことでいいと思います。
囲碁の場合のAIがまさにそうだったのですが、ルールを与えているわけですね。こういうルールで勝ち負けを判定しますよと。それはAIにトライアル・アンド・エラーを自動的に何度も何度もやらせたわけであります。そうすると、これまでの人間のいわゆる定石では発見されていない手法というのが発見されたというようなことがございました。この場合は、基準を与えていて、基準に対して最適化しなさいよという人間の意図は伝わっているわけですね。ただ、それはきっとこういう動作になるであろうなという我々の予想とは違う結果が出ていたわけであります。
このような形でのずれというのが起きていて、なぜこうなったかが分からない。良いのは良いんです。良いことは分かるんだけど、何でなのか分からないというのが今AIについて言われているブラックボックス化と呼ばれることの実態であります。
|
||||
| 大屋雄裕 |
役職 :慶應義塾大学法学部法律学科教授
役割 :参考人
|
参議院 | 2025-05-22 | 内閣委員会 |
|
二つの事案があろうかと思います。
一つは、おっしゃった例の一つは、サイバー攻撃があったようなケースで、本来学習させたもの、あるいは利活用者が意図していたのとは違う目的が勝手に注入されたと、こういう形でのアタックを受けることによってシステムが乗っ取られる危険というのは当然ございます。これについては、したがって、結果をちゃんと検証して、ドローンの場合であれば、多分違った方向に行ったのが目に見えますので、その時点でシステムをシャットダウンして、安全回復、安全確保措置を講じるみたいなことが要請されることになります。
それとは別に、先ほどのバグと同じなのですが、一定の評価基準は伝えましたと。ところが、その評価基準が言葉足らずであった、我々からするとですね、というようなことがよく起きるわけであります。先ほど申し上げたHAL9000の例というのは実はそのケースだったはずで、要するに、安全を確保し
全文表示
|
||||
| 大屋雄裕 |
役職 :慶應義塾大学法学部法律学科教授
役割 :参考人
|
参議院 | 2025-05-22 | 内閣委員会 |
|
安全確保措置が十分に講じられていれば大丈夫だし、そうでなければいけないというのがお答えになろうかと思います。
一例として申し上げますと、医療に用いられるAI診断ですね、診断機器にAIを組み込んだ場合に、それがちゃんと動作しているし期待どおりだよなということは常に医師が点検して、その上でないと実際の医療行為につながらないようになっております。
このような形で、能力のある人がちゃんと監査した上でということであれば生命のようなものについても利用可能だと思いますし、何かインターネット上でいきなりAI病気診断システムが動き始めるというような事態は避けた方がよろしかろうと思うところでございます。
|
||||