「童貞のまま結婚した男」の記録

元「30代童貞こじらせ男」 30代後半まで童貞で、そのまま結婚した男の記録です。

生成AIによる著作権侵害

f:id:tureture30:20240722172538j:image

 

 

 

 

 

はてなブックマークでバズっていた記事がとても興味深かった。

 

男性がSNSのアイコンに、自らの写真を加工アプリを使用して女性化したものを使用したら、無断で自分の写真を使用している、と主張する女性から訴えられたようだ。

最終的には女性側が非を認め、謝罪をして円満解決したとのこと。

 

しかし、これから先の時代は、同じようなトラブルが無数に発生するのではないだろうか。

生成AIの発達は凄まじい。

文字だけで画像や映像を生成してくれるものまで誕生している。

 

著名人であれば、名前と紐づけられた画像がネット上に山ほど転がっているから、フェイク動画を作ることも容易だろう。

 

何が真実で、何が真実ではないのか。

その辺りの判断が非常に難しくなる時代の幕開けだ。

 

今のところ有力なフェイク対策としては、生成AIで作られたものにはデジタルタグを付与して、それが偽物であることをわかるようにすると言うものを考えているようだが、それは大した効果がない。

 

生成AIが一般的になれば、非公式の生成AIを開発することはそれほど難しくはなくなるだろう。

そうすると、非公式にいくらでもデジタルタグなしのフェイク動画を作成可能となるはずだ。

 

いまでも海賊版作品のアップロードがイタチごっこであるように、こうしたデジタルタグなしのフェイク動画を根絶させることはできない。

つまり、誰でもフェイク動画の被害に遭う可能性のある時代がすぐそこまでやってきているのだ。

 

もはや、SNSには極力、個人情報やそれに繋がるようなものをアップしないほうが良い。

知らないところで、自分の写真や動画が加工されて、社会的信頼を失墜させられるような事件に巻き込まれるかもしれないのだ。

 

小さく写った写真だけで個人を特定できるような技術も着々と実用化されているのだろう。

もしかしたら、警察などでは秘密裏にすでに実用化されているのかもしれない。

 

なんとも世知辛い時代だ。

これからの時代は、著名人を除いて、鍵なしで自分の写真をアップすることが自殺行為だと言われる時代になる。

 

そうなった時に、我々はアナログに原点回帰するのだろうか。