未成年の合成画像は児童ポルノに該当するか?
近年、AIによる未成年の性的画像の作成(ディープフェイク)が法的に問題視されていますが、
合成アプリ等を用いて未成年の顔と成年の裸体を緻密に組み合わせただけの合成写真は、児童ポルノに該当しうるのですか?
合成アプリ等を用いて未成年の顔と成年の裸体を緻密に組み合わせただけの合成写真は、児童ポルノに該当しうる
というのが最近の警察広報です。
有罪事例を調べないとわかりませんし、画像によると思います
>合成アプリ等を用いて未成年の顔と成年の裸体を緻密に組み合わせただけの合成写真は、児童ポルノに該当しうるのですか?
完成後の画像が局部等を露呈した画像であった場合を前提とすると、生成AIで作られた性的ディープフェイクを児童ポルノに当たると判断し、起訴された実例は既に存在します。また、Grokを用いた画像の摘発事例もすでに何例も存在します。
そのため、
>合成アプリ等を用いて未成年の顔と成年の裸体を緻密に組み合わせただけの合成写真
捜査機関としては「児童ポルノに該当する」という判断をするのが通常かと思われます。