戻る

参議院

参議院の発言165737件(2023-01-20〜2026-02-26)。登壇議員2770人。会議名でさらに絞り込めます。

最近のトピック: 選任 (67) 理事 (46) 予算 (43) 令和 (42) 指名 (36)
発言一覧
発言者 肩書 日付 会議名
城内実 参議院 2025-05-20 内閣委員会
お答えします。  今のいわゆるバイアスの話とか、アテンションエコノミーという御指摘ございましたけど、まず、本法案に基づきまして国が整備する指針では、このバイアスの問題も含めまして、AIによる不適切な出力をできる限り抑制する工夫をAI開発者等に求めていく考えであります。  また、AI開発者が講じる工夫としては、例えば、そもそもバイアスのあるデータを学習させない、そして、出力結果を評価するツールをしっかり開発して不公正なバイアスがないかしっかり点検すると、そして、AI同士を対話させ、AIにAIをチェックさせると、様々な方法が想定されます。  その際、何がバイアスかが判断しにくい微妙なケースが多々あるとは承知しておりますが、他国で開発された評価ツールでは日本の文化、習慣、歴史等を正確に反映できていない可能性があるため、こういった点では、国産のAI、国産の評価ツールの開発や、複数のツールを言
全文表示
石川大我 参議院 2025-05-20 内閣委員会
是非よろしくお願いしたいと思います。  そのほかにも、対応策として、プロファイリングされた興味、関心というものや嗜好とは異なるものをあえて表示をさせるランダム性を入れるとか、選挙やパンデミック時などの特定の期間には行政とかマスコミ、研究機関などの信頼性の高い情報を上位に表示をさせるとか、そういったような様々な工夫あると思いますので、是非そういったところも御検討いただけるということで、確認ですが、大臣、よろしいですか。
城内実 参議院 2025-05-20 内閣委員会
今後、戦略本部の下でしっかりとした対応をつくっていく考えでありますので、有識者の方々とも、あるいは関係省庁とも連携しながら、石川委員御指摘のことも踏まえて、しっかり対応していく考えであります。
石川大我 参議院 2025-05-20 内閣委員会
是非よろしくお願いしたいと思います。  次の問題です。  SNS上のデマとか誹謗中傷の問題でこのAIが活用されてしまっているという例なんですけれども、例えばチャットGPTに気に食わない相手の投稿についてのファクトチェックをさせるんだそうです。ファクトチェックするのはかぎ括弧付きのファクトチェックですけれども、気に食わない相手の投稿について、さもファクトチェックをしているようにAIに、チャットGPTにさせるんですね。そうすると、その答え、チャットGPTの答えにSNS上の流れているデマが反映されて、それで、そのファクトチェックを、忖度をするというか、空気を読んでというか、その質問者の意図を酌んで、質問者の主張に沿った形でチャットGPTが答えてくれちゃうんだそうですね。  そうすると、その得た者がファクトチェックだというふうに言って、それを世の中に表示すると。そうすると、その偏見を含んだ形
全文表示
城内実 参議院 2025-05-20 内閣委員会
御指摘のとおりでありまして、AIは二十四時間三百六十五日ずっと稼働し続けておりまして、そういった点から、寝ずに人間よりもまさに大量の偽情報を作り出すことも可能であるというふうに認識しております。  そのため、AIやSNSの利用者が、AIやSNS上には常に偽情報が含まれていると、そういった認識を持つことが重要だというふうに思います。そして、分かりやすいコンテンツを作成して、全世代を対象にしっかりと広報を進めるなどの取組も必要だと考えております。  また、AIの分野は技術変化が大変速く、かつ、委員から御指摘いただいた内容は、やはりその技術、倫理、法律、若者文化の様々な問題が複雑に絡み合い、この全てを理解し、利用者のリテラシーを高めるなど、対策をしっかり講じることができる人がやはりまだ少ないと、こういう問題もあるというふうに認識しております。  いずれにしましても、AIに関するリテラシーの
全文表示
石川大我 参議院 2025-05-20 内閣委員会
是非よろしくお願いしたいと思います。  話題を変えて、性的ディープフェイクについてお聞かせ願いたいというふうに思います。  衆議院の審議でも論点というふうになりました性的ディープフェイクについて伺います。まず法務省に伺いたいと思いますけれども、四月九日の衆議院内閣委員会では、このディープフェイクというのは、例えば顔を実在するお子さんの顔、そして体は生成AIで作ったもので、それを拡散されてしまうと、そういった問題ですけれども、その内閣委員会、衆議院では、問題となっているその児童の姿態を、姿態というのが、実在する児童の姿態だと言える、姿態というのは姿という字を書きますけれども、その姿態だと言えるということであれば児童ポルノに該当し得るという抽象的な答弁でした。最高裁の決定もあるわけですけれども、現在の法律で果たしてカバーできるのかというような論点があります。  例えば、実際は顔は実在の児
全文表示
吉田雅之 参議院 2025-05-20 内閣委員会
いわゆる児童ポルノ禁止法上の児童ポルノは、犯罪構成要件の一部を成すものでございます。そのため、ある画像等を記録したものが児童ポルノに該当するか否かは犯罪の成否に関わる事柄でございまして、収集された証拠に基づいて個別に判断されるべき事柄であることから、お答えは差し控えさせていただきたいと存じますが、あくまで一般論として申し上げますと、児童ポルノ禁止法二条三項の児童ポルノについては最高裁判所の決定において次のように判示されております。  すなわち、写真、電磁的記録に係る記録媒体その他のものであって、二条三項各号に掲げる、同項というふうに判示ではなされていますが、二条三項各号のいずれかに掲げる実在する児童の姿態を視覚により認識することができる方法により描写したものをいい、実在しない児童の姿態を描写したものは含まないものと解すべきであると、このようにされているところでございます。  ここでいう
全文表示
石川大我 参議院 2025-05-20 内閣委員会
最高裁の決定が一例しかないということで、キーワードとなるのが、実在する児童の姿態と評価できるかというのがポイントで、実在しない児童の姿態というものがわいせつ部分というと、わいせつ等と評価される部分というところに当たると非常にこれ難しいんじゃないかということで、例えば腕のところに特徴的なほくろとかあざみたいなものがあって、それは夏になると半袖とかタンクトップとか着ますから普通にクラスメートなんかも分かるというような状況で、その顔と腕が本物で、胸とかそういう局部の部分がディープフェイクであるというようなとき、こういった場合は、これも分からないということなんでしょうか。
吉田雅之 参議院 2025-05-20 内閣委員会
今御指摘ございましたように、ディープフェイクポルノには様々な形態のものがあろうかと存じます。  それらが実際に児童ポルノ禁止法上のこの児童ポルノに該当するかどうかということは、個別の事案ごとに証拠に基づいて判断されるということになりますので、お答えは差し控えさせていただきたいと存じます。
石川大我 参議院 2025-05-20 内閣委員会
そうなんですよね。ですから、国民感情とすれば、顔がその方で、そして何かその人と分かるようなほくろなりあざなりとか特徴があったとして、そして裸にされてしまっているというようなところを見たときに、そういうものが出回っている、当然、当事者の被害者の方というのは非常に傷つくわけです。深い傷を、心に傷を負うわけですよね。  そうしたときに、それが明らかにこれは偽物だというふうに分かるという時代はもう終わって、それが本物なのか、それともディープフェイクなのか、生成AIによるものなのかというのはもう分からない時代に来ているんじゃないかなと思います。当然、その被害者の女の子であったり男の子であったりの裸というものはクラスメートは見たことが基本的にはないわけですから、そうすると、それが生成AIなのか本物なのかということは余り問題なく、やっぱりそれが本物だというふうに思われるような形で世の中に広まっていって
全文表示