戻る

内閣委員会

内閣委員会の発言28615件(2023-01-26〜2026-01-23)。登壇議員1037人。関連発言を時系列で確認できます。

最近のトピック: 給与 (89) 職員 (84) 公務員 (62) 民間 (50) 人事院 (49)
発言一覧
発言者 肩書 日付 会議名
城内実 衆議院 2025-04-11 内閣委員会
お答えいたします。  データポイズニングは、御指摘のとおり、悪意を持った攻撃者がAIの学習データに不正確又は有害なデータを組み込むことにより、AIが誤った応答や偏った情報を生成するように誘導する攻撃手法であります。  過去には、利用者との会話データを基に自ら学習するチャットボットサービスにおいて、極端な主張を繰り返し学習、訓練されたことで差別的な出力を行うようになったという具体的な事案がございました。その際は、サービス事業者が利用者が入力したデータをAIの学習に利用しないといった対策を講じたというふうに承知しております。  なお、国立研究開発法人産業技術総合研究所、いわゆる産総研におきましては、AI開発者向けに、データポイズニングへの対策も含めました機械学習品質マネジメントガイドライン、これを公開して、随時改定しているところでございます。  その中で、具体的な対策として申し上げます
全文表示
橋本慧悟 衆議院 2025-04-11 内閣委員会
御答弁をいただきました。確かに、そういった差別的な出力がされるようになるとか、本当にこれから防いでいかないといけないこともたくさんあると思います。これから議論が進んでいくと思います。  済みません、一つ飛ばさせていただいて、AIが抱えるリスクへの対応ということで移らせていただいてもいいですかね。先ほどの御答弁の中でもありましたので、こちらの方が有機的につながってくる質問かなと思うんですが。  AIは、過去のデータを機械的に学習して現在及び将来の予測に役立てるものであるという性質上、過去の学習データ自体に含まれているバイアス、偏見ですね、この影響を完全に排除することはできない、そして、結果的に人の意思決定自体がゆがめられてしまうこともあるんじゃないかなという、そんな懸念を持っています。  平成三十一年三月に取りまとめられた、人間中心のAI社会原則においては、AIの情報リソースとなるデー
全文表示
井幡晃三 衆議院 2025-04-11 内閣委員会
お答えいたします。  行政サービスの質の維持向上、こういった観点から、業務における生成AIの利活用を進めることは非常に重要でございます。他方で、委員御指摘のように、生成AIのリスク管理、こちらも一体的に進める必要がございますことから、政府機関などにおきます業務活用、これにおける注意事項をまとめたものを関係省庁間で申合せを行っているというところでございます。  さらに、今後、政府における生成AIの利活用を拡大するものと見込まれておりますので、具体的なリスクに関する対応事項などにつきまして、生成AIの調達、利活用に関するガイドライン、これを新たに定めることとしておりまして、来月を目途に策定したいというふうに考えております。  このガイドラインが、まさに本日までパブリックコメントの募集を行っているところでございますけれども、このガイドラインにおきましては、各府省において生成AIを利用する際
全文表示
橋本慧悟 衆議院 2025-04-11 内閣委員会
御答弁を丁寧にいただきました。調達チェックシートを定めるとか、いろいろな手法で適正な利用に向けて取り組まれると思いますが、本当にこの公的部門がしっかりと信頼性を維持していくためにもそういった取組は重要だと思いますので、是非今後もよろしくお願いします。  そして、中間取りまとめにおきましては、AIに関する意識調査の結果によると、日本では、現在の規則や法律でAIを安全に利用できると思う回答者は一三%と低く、逆に、七七%の人がAIには規制が必要だと考えていると記載されています。また、品質の不安定さとか、プロセスのブラックボックス化、見えないですね、そういった状況等についてリスクを感じているほか、政府に求めることとして、AIの悪用や犯罪に対する法的対策の強化というのが挙げられています。  これに対して、本法律案においては、リスクへの対応に係る措置に関する勧告、命令等の規定がございません。「不正
全文表示
渡邊昇治 衆議院 2025-04-11 内閣委員会
勧告、命令等の規定につきましては、これを設けない理由につきましては、罰則を設けない理由と共通する部分があると思っておりまして、答弁を申し上げます。  まず、現在顕在化しているリスクにつきましては、これは実際に事例もあるわけですけれども、現行法令に基づいて対処をしているというところでございます。  その上で、AIは、技術の変化が速くて、また、どういうリスクが生じるか予測が難しいというところがございます。そういう中で、命令ということになりますと、これは非常に重い処分ということになりますので、命令の前提になります禁止行為ですとか基準を不公平なく明確に定めていく必要がございます。これが現時点では難しく、むしろ臨機応変に予想外の問題に対応していくためには、今回の法案の中で提案させていただいているような、様々な事案に対して国が臨機応変に情報収集、調査をして、分析、検討していくということが望ましいと
全文表示
橋本慧悟 衆議院 2025-04-11 内閣委員会
臨機応変に対応するためにもというお話がありましたが、やはり、我々は推進をしっかりしていく立場ではありますが、それと同時に、そういったリスクへの対応というのを国民に対してもしっかりと周知していく必要があると考えています。  例えばEUのAI法におきましては、AIのリスクに応じて規制内容を変えるリスクベースアプローチという方針に基づいて、規制対象を四段階のリスクレベルのAIアプリケーション及びシステムというものに分類をして、それぞれに対して異なる規制を課すこととされていると思います。これに対して、本法案では、やはり、リスク対応に係る措置に関する勧告、命令等の規定が置かれていないなと、比較をして感じるところです。  AIのリスクは多様であるため、ハイリスクのAIについてのみ厳しい規制を課した上で、そうではないAIについては積極的に利活用を進めるといった硬軟織り交ぜた対策も必要じゃないかなと思
全文表示
渡邊昇治 衆議院 2025-04-11 内閣委員会
EUのAI法の四段階のリスクベースアプローチにつきましてお答えを申し上げます。  EUのAI法のアプローチにつきましては、法案の検討段階で参考にさせていただいております。EUのAI法は大きく二つのパートに分かれておりまして、一つが、この四つの段階のリスクに分けた規制部分でありまして、もう一つは、生成AIに関するマクロなといいますか、全体、まあEUの言葉では、生成AIとは言わず、ジェネラルパーパスAIというふうに呼んでおりますけれども、に関する包括的な規制、この二つのパートから成りますけれども。  その片方の四段階のものについて申し上げますと、まず、最上位のリスクにつきましては、許容できないリスクということで、そういったAIシステムは禁止というふうにされています。また、二段階目、これはハイリスクなAIシステムということになりますけれども、これを扱う事業者には基準適合義務が課されるというよ
全文表示
橋本慧悟 衆議院 2025-04-11 内閣委員会
御答弁をいただきました。  時間の関係で一つ飛ばさせていただいて、EUの対策についても、我が国との比較についても述べていただきましたが、じゃ、EUの一般データ保護規則、いわゆるGDPRについてです。  これは、データ主体に関する法的効果を発生させる、又はデータ主体に対して同様の重大な影響を及ぼすプロファイリング、これは個人の経済状況でありますとか健康でありますとか興味、関心、行動や位置情報とかの一定の個人情報の側面の評価のことだと思いますが、このプロファイリングには規制がかけられ、個人の権利が保障されていると認識をしています。  このように、意思決定がAIに操作されないように制度的な措置を講ずるべきだと考えますが、いかがでしょうか。
渡邊昇治 衆議院 2025-04-11 内閣委員会
お答え申し上げます。  EUのGDPR二十二条におきましては、これは個人データに関する法令でございますけれども、専ら自動化された取扱いに基づいた意思決定の対象とされない権利というのが規定されているものと承知しております。ちょっと、やや難しいんですけれども、平易に申し上げると、コンピュータープログラム等が人の評価をしてしまうというか、それは避けるべきであるというようなことが規定されているということでございます。  一方、日本におきましても、コンピューターのプログラムのアルゴリズムが提案する内容が違法な行為を助長するような場合、不適切な場合には、既存の現行法で規制がなされるものというふうに考えております。  このAI法案は、個別のリスクというよりは、むしろ、予想できない、いろいろな多様なリスクがあり得ると思いますので、そういったものに対応していく法律、法案ということでございまして、個別の
全文表示
橋本慧悟 衆議院 2025-04-11 内閣委員会
御答弁をいただきました。既存の現行法とか各業法での規制を行う、それが今回、日本のAI推進法においては大分キーになるというか、しっかり議論していくべきところかなと改めて感じました。  そうなると、個人情報についての質問に移らせていただきます。  AIが収集する学習データの中には、特定の個人を識別できる個人情報がやはり含まれている場合があると思いますが、あらかじめ本人の同意が得られていない個人情報をAIが収集した場合は、個人情報保護法に違反するのではないかというような議論とか懸念もあると思います。  個人情報保護法第三十五条に基づき、本人から例えばAI利用事業者に対して、本人の同意がなく収集された個人情報の消去というものを請求することはできるのでしょうか。お答えください。