123. 针对性报道(1/3)
“就在昨天,谷歌发布了最新的人工智能技术faegan。
于此同时发布的,还有一个叫做[这些人并不存在]的网站。
或许观众们会觉得这是一个彻头彻尾的恶作剧,因为这些肖像,这些人物看上去是那么的真实,栩栩如生。
可爱的幼童,美丽的女士,英俊的绅士,历经沧桑的老人。这一切似乎与我们生活中的人物没有任何不同。
但事实证明,这些图像并不是真实拍摄而来,而是使用最尖端的人工智能技术生成获得的。
对此,我们应当感受到深深的担忧。
faegan是两个短语,fae和gan的组合。其中gan是两个月前,由华国年轻人工智能学者,孟繁岐提出的生成式对抗网络。
这是一种创新的人工智能方法,gan在两个月前,还只是领域内开创性的一个设想。
但两个月之后,针对人脸任务的faegan就已经展现出了惊人的生成效果,威力无穷。
按照这样的发展速度,我们有理由相信,任何拥有计算机和互联网的人都可以创建逼真的照片和视频,展示人们在说和做他们实际上没有说或做的事情。
荒谬绝伦的事情都有可能会拥有[证据]佐证。
尽管令人印象深刻,目前的faegan技术仍旧暂时无法与真实的高清照片相提并论——通过仔细观察,通常可以分辨出该相片是人工智能生成的。
但这项技术正在以惊人的速度进步。专家预测,用不了多久,人们将无法把人工智能生成的内容与真实图像区分开来。”
这是福布斯的报道,总体来说还算是中肯。
虽说对后续人工智能发展的速度过分乐观了一些,不过这属于外行人犯了也很正常的错误,完全可以理解。
可nn那边,报道的画风就完全不一样了。
尤其是其中这一段,攻击性非常之强。
“类似的生成技术将被广泛应用的第一个用例——新技术通常就是这样,不论你愿不愿意——都将会是涩情内容。
而生成式涩情内容几乎都必定是非自愿的,从网络的一些黑暗角落,这样的生成式技术会逐渐从涩情领域蔓延到政治领域,并造成更大的混乱。
如果可以向所有人展示他们认为是[真实的]虚假内容,那么不需要太多想象力就可以理解可能造成的危害。
想象一下政客在选举前参与贿赂或性侵犯的生成式伪造镜头;或美国士兵在海外对平民犯下暴行;或
本章未完,点击下一页继续阅读。