Copyright(C)長谷川芳典 |
昨日の日記でカナムグラがヤブガラシを圧倒している写真を掲載したが、一部の例外はあるものの、やはり全体としてはヤブガラシのほうが優占状態にあるようだ。 写真は、枝や落葉の集積所の小山にヤブガラシが密集しているところ。なおヤブガラシは「他家受粉でしか結実出来ないため、種は少ない」という。そう言えば、ヘクソカズラ、ノブドウ、アオツヅラフジなどが種をいっぱいつけるのに対して、ヤブガラシの種というのは見たことがない。 |
【小さな話題】ディープフェイク の可能性 10月12日のモーサテで、ディープフェイクの話題を取り上げていた。 ウィキペディアのリンク先にも記されているように、ディープフェイクとは ディープフェイク(deepfake)は「深層学習(deep learning)」と「偽物(fake)」を組み合わせた混成語(かばん語)で、人工知能にもとづく人物画像合成の技術を指す。「敵対的生成ネットワーク(GANs)」と呼ばれる機械学習技術を使用して、既存の画像と映像を、元となる画像または映像に重ね合わせて(スーパーインポーズ)、結合することで生成される。 既存と元の映像を結合することにより、実際には起こっていない出来事で行動している1人あるいは複数人の偽の映像が生み出されることとなる。 ディープフェイク自体は1つの技術であり、悪用される場合もあれば、役に立つ場合もあるように思われる。 番組でも取り上げられていたが、悪用例としては、大統領選挙などで、対立候補者が失言や暴言を吐いているような偽動画を作って公開し、支持者が反感をかうように仕向ける謀略であり、今回の大統領選挙の終盤でもネット上で次々と流される恐れがあるという。 このほか、リンク先にもあるように、人気女優の顔とポルノ動画を合成し、その女優があたかもポルノに出演しているように見せるディープフェイクポルノというのがあるという。日本でも、10日ほど前に、 警視庁と千葉県警察本部は10月2日、AIを使ってポルノ動画に写った人物の顔を芸能人の顔にすり替えた“ディープフェイクポルノ動画”を公開したとして、男性2人を名誉毀損(きそん)と著作権法違反の疑いで逮捕したと発表した。ディープフェイクによるポルノ動画を巡る逮捕は初という。【出典はこちら】 |