戻る

内閣府科学技術・イノベーション推進事務局統括官

内閣府科学技術・イノベーション推進事務局統括官に関連する発言94件(2023-03-09〜2025-05-27)。登壇議員2人。関連する会議録を横断的に参照できます。

最近のトピック: 研究 (85) 開発 (78) AI (66) 事業 (65) リスク (63)
発言一覧
発言者 肩書 日付 会議名
渡邊昇治 参議院 2025-05-27 内閣委員会
お答え申し上げます。  今、主要なガイドラインとしましては、事業者向けのガイドライン、あるいは初等中等教育向けのガイドライン等がございます。そのほかにもガイドライン以外の文書も含めてたくさんあるわけですけど、これ政府の中で十幾つかあるんですけど、それぞれどういう文書であって、誰に対してどういうことを求めているかということを、まず鳥瞰図みたいなものを、全体を俯瞰するようなものを作って、それを全体を束ねて、今回整備する指針を見ていただくと、こういうことをやる人はこれを見ればいいみたいなことが明確になるようにしたいというふうに考えております。
渡邊昇治 参議院 2025-05-27 内閣委員会
お答え申し上げます。  定義につきましてこれ広めに取ったのは、広めに書いておけば頻繁に法律を改正しなくていいとか、まあそれも、そういう思いを持っている職員もいるかもしれませんけれども、私は決してそういうことではなくて、やはり技術の進化が速い中で、限定的な定義をするのがむしろ難しいというか現実的ではないということだと思います。  定義につきましては、ほかの法令でも定義はございますし、またISOとかでも人工知能については定義をしているところであります。そういう中で、そちらの定義もやはり広めには書いておりまして、人工知能技術が大きく変化したとしても、それは適用できる定義というのを使っていると思います。  くれぐれもあれなんですけれども、決して人間以外のものが全部人工知能とか、そういうことを申し上げるつもりはございませんで、人間のその知的な能力を模倣したといいますか、代替できるような、そうい
全文表示
渡邊昇治 参議院 2025-05-27 内閣委員会
まず、大変鋭い御質問でお答えが大変難しいんですけれども、海外では生成AIを含むアドバンストAIシステム、先進AIシステムみたいな言い方をすることが多くて、やっぱり生成AIを含むんだけど、もうちょっと広めに取っているというのが一般的ではないかと思います。  要は、生成AIというのは、質問に対して情報を作り出すみたいなそういうことなんですけれども、人間が質問しなくても情報を作り出すようなAIというのもあり得ると思いますので、そういうものも含めて、その高度なAIというのを割と法律の、そういうルールの対象にしていこうという動きが、海外でもそういう動きがあるんではないかなというふうに思います。  しかしながら、御指摘のとおり、今これだけリスクが多様化して問題化しているのはやはりこの大規模汎用生成AIが出てきたからでありますので、この法案を作るに際しては、当然その生成AIがあることを意識をして当然
全文表示
渡邊昇治 参議院 2025-05-27 内閣委員会
済みません、先ほどちょっと具体性がないということでお叱りを受けましたので、ちょっと具体的に申し上げます。ちょっと五つぐらいのことを申し上げます、ガイドラインに盛り込みたいということで。  一つは、まず、AI開発者がもう開発段階でAIの安全性をちゃんと予測をして、予想して、安全性を高めるような工夫を講じるということでございます。  二つ目は、そのAIを、製品を市場に出した後もインシデントとか問題がないかのその情報を集めて、それで必要に応じて改善をしていくということであります。この改善の方法というのもいろいろございまして、いわゆるチェックツールみたいなものを使って、ソフトウェアでその安全性がないかどうかをチェックするとか、レッドチームみたいなものをつくって、会社の中で敵対的に攻撃するチームをつくってチェックするとか、あるいはAI同士で戦わせて安全かどうかをチェックするとかいろんな方法が提案
全文表示
渡邊昇治 参議院 2025-05-27 内閣委員会
現時点では、生成AIが出てきたことを念頭に作るガイドラインになると思いますので、生成AIとそうじゃないものを書き分けるということは今の時点では想定していないんですけれども、これから指針の策定作業に入っていって、その間に例えばAGIがかなりもう具体化してきたとか、それから、生成AI以外のAIでも、過去のというか、以前の一般的なAIもいろいろ問題が起きているよということであれば、それは何かその指針の中でちょっと別のセクションを作って注釈を付けるとか、そういう方法もあり得るかなと思っていまして、まさに今後有識者の意見等も聞きながら検討させていただきたいというふうに思います。
渡邊昇治 参議院 2025-05-27 内閣委員会
お答え申し上げます。  今御指摘ございましたように、十六条には複数のことが書いてあるんですけど、四つの、大きく分けて四つのことが書いてございます。一つは、例えばビッグテック等からの情報を収集するという、AIの開発とか活用に関する情報収集です。二つ目は、例えば悪質な、いわゆる悪質事案といいますか、そういったものに対応する分析、あるいはその対策の検討ということでございます。そして三つ目は、その他のもっと一般的な、例えば重要な産業でどういうふうにAIが使われているかとか、あるいは新しい技術でどういうものがあるかという、そういう調査ということになります。最後に四つ目に、そういう調査の結果を踏まえて、事業者に対する指導ですとか助言とか国民に対する情報提供とか、そういうことが盛り込まれているところでございます。  これがなぜ四つもあるのにこれを全部一つの条文でくるんでいるかというと、このいずれも目
全文表示
渡邊昇治 参議院 2025-05-27 内閣委員会
お答え申し上げます。  EUのGDPRにつきましては、確かにEUで個人情報に関するルールを作ったときにグローバルなプレーヤーはそれに従うようになりまして、そうすると、グローバルなプレーヤーはほかの国でも同じ方法でやるということでEUのGDPRが広がっていったという評価、そういうことをおっしゃる学識経験者の方もいらっしゃいます。  ただ、一つは、これは少し個人的な解釈にもなりますけれども、個人情報の保護というのは割と、国が変わっても、ほかの国であってもそれはやっぱり保護された方がいいよねと思う方は多いと思うんですね。ただ、じゃ、AIはどうかというと、どういうAIが良くて、どういうAIが良くないかみたいなところは、やはり文化的にというか、国によってもかなり差異があると思っておりまして、EUで何かルールを作ったらそれが広がっていくかどうかというと、そこはまだ分からない部分だと思います。実際に
全文表示
渡邊昇治 参議院 2025-05-27 内閣委員会
お答え申し上げます。  リスクにつきましては、明確に規制の目標が描けて、かつそれをクリアするための技術がある程度めどが付いているということであれば、これはその規制を作ることによって技術開発を誘導するということは可能ではないかと思います。  ただ、AIにつきましては、まだその明確な目標というのが、まず作りにくいという問題もありますし、それを作ったとして、それをクリアする技術があるかどうかというところも難しい部分があろうかと思います。  ただ、だからといって何もしないというわけにもいきませんので、今回の法案のような、ある種のその指針、こういうものを作ってそれを、自主的な取組を尊重して対応していくということでございます。自主的取組ということの意味は、事業者が自発的に新しい技術をどんどんチャレンジできるということでもございますので、そういう形でございます。従来のちょっと規制とは違う形の考え方
全文表示
渡邊昇治 参議院 2025-05-27 内閣委員会
お答え申し上げます。  ガイドライン、指針に基づきまして事業者ごとにリスク評価をやっていただきたいと思っていまして、そのことは指針の中にも分かりやすく盛り込んでいきたいと思っているところなんですけれども。  具体的に申し上げますと、例えば、企業でAIを搭載したロボットを導入したとします。このロボットが誤動作をする可能性もあるわけですね。そういうときに、もし誤動作をしたら誰にどういう影響があるかとか、誤動作をしたという情報をどうやって集めるかとか、それが集まったときに、今度その社員はどういうふうにそれに対して対処していくのかと、こういったことをきちんと各事業者がそのポリシーを作って、しかも開示をして、開示したとおりにちゃんと実行していると、そういうことを明らかにしていくということが重要でありまして、これを、そういったことを分かりやすく指針に盛り込みたいということでございます。
渡邊昇治 参議院 2025-05-27 内閣委員会
お答えを申し上げます。  私のうぬぼれではないことを期待して申し上げますと、おおむね海外の事業者からは好意的な印象で受け止めていただいていると思います。  それは、今大臣からお話がありましたような、決して国の、何か国家による検閲みたいなそういう法律にもなっていないし、細かな基準みたいな、過剰規制的なものでもないですし、また、逆に全くルールがないかというと、国が明確にその方針を定めて指針を定めてということになっておりますので、そういったところへの安心感といいますか、そういう部分で事業者さんは日本の法案に対して評価をしていただいているというふうに考えております。