急増する「AI生成」による児童の性的虐待画像、OpenAIなどが対抗措置開始
コメント
注目のコメント
ディープポルノ、選挙に対する政治的世論操作、個人への誹謗中傷、偽災害・偽テロニュースによる社会的不安、等々。ディープフェイクの悪影響は看過できません。
厳しく広いAI規制には反対ですが、ディープフェイク規制には賛成です。焦点を絞った先行法制化を望みます。AIを悪用した児童ポルノ画像の増加は深刻な問題ですね。
技術の発展は社会に多大な恩恵をもたらす一方で、犯罪にも悪用されるリスクがあります。特に子供たちを守るためには、企業や団体、政府が一丸となって対策に取り組む必要があるでしょう。
OpenAIなどの大手AI企業が、NCMECと協力して問題のあるコンテンツの検知に乗り出したのは心強いニュースです。ただ記事にもあるように、小規模なプラットフォームの協力が得られていない点は課題ですね。
AIで生成された画像と本物の画像の見分けが難しくなっているのも厄介な問題です。犯罪捜査の現場が混乱してしまうかもしれません。
月450件もの報告が寄せられているのは衝撃的な数字です。[1]社会全体でこの問題に真剣に向き合い、子供たちを守る取り組みを加速させなければなりません。技術の光と影の部分を認識し、健全な活用を推進していくことが求められていると感じました。現実問題として画像の生成自体を止めることは不可能なので能動的に見に行かない限り目に入らない形にしていくしかないでしょうね。従来のアダルトコンテンツみたいに。
これにより実社会で性被害に会う児童が減少したりすれば悪いことばかりでもないと思うのでその辺の動向は注視していく必要がありそうです。