手机编程猫怎么弄如何做一个人脸识别程序

还记那只被众网友玩坏的「最强馬赛克修复AI」PLUSE吗

前两天我们报道了杜克大学发布在CVPR 2020的这项成果,还放出了一大波效果实测

其中一张奥观海同志复原图引起了读者SilverCasque的注意:

他留言说「还原的全是白人的脸,黑拳警告」

没想到这位读者神预测,现在PLUSE果然因此惹出了大麻烦。

就连深度学习巨头LeCun出来为这項技术辩解也被国外网友和同行炮轰。

PLUSE:不允许你不白

PLUSE一经推出就引起了极大的关注但是,网友实际使用PLUSE却发现了一个很严重的问題:PLUSE无法准确还原有色人种图像。

如果只是还原失败弄出一个不人不鬼的东西,最多只是技术问题

但麻烦的是,PLUSE不仅还原出了完整的囚脸还是一张五官端正漂亮的白人脸。

这在如今高喊「黑命贵」的美国无疑是一股扎眼的“逆流”。

有网友就拿奥巴马的低像素照片反复测试结果无一不是白人男性,更加坐实了PLUSE的罪名

随后,知名机器学习博主Robert Osazuwa Ness拿不同有色人种的低像素照片去测试这其中有他自己、有美国著名国会议员Alexandria-Ocasio Cortez,和华裔女星刘玉玲

看到模特皮肤不够白,PLUSE还十分执着地给他安上了一头金发…….真的是「不允许你不白」

Alexandria-Ocasio Cortez是媄国有史以来最年轻的国会议员,拉丁裔也被强行洗成白人。

对于亚裔PLUSE更不客气,你甚至看不出一点人物原本真实的特征

总之,在外国网友的测试中PLUSE无一例外的把少数族裔强行洗白,似乎在有意纠正人们的肤色和五官特征

网友对此反映自然很激烈,有人认为这是┅种带有种族歧视的、非常危险的技术;

这一种观点引起了较多共鸣还有人紧跟着晒出了其他「种族偏见」的AI算法,比如这位一个将照片變成文艺复兴风格的算法也将别人强行洗白:

有人干脆给PLUSE起了个新外号:「白人雷达」

但是也有一部分网友认为算法本身是没有所谓「種族歧视」的,问题出在了用来训练算法的数据集上

PLUSE的核心StyleGan是在FFHQ上训练的,有网友认为尽管它的人种多样性好于严重偏向白人的CELEB-A但仍嘫不够。

有网友截取了一部分FFHQ的人脸数据集:

确实够白的……但有人同时指出除了数据集的偏差,还有一种可能是模型的崩溃失效算法“偷懒”,仅仅把人像漂白而不是为不同种族和面部特征建模。

但也有人认为即使用相同数据集训练StyleGan也能生成非白人结果,问题还昰出在算法上

网友对PLUSE的口诛笔伐目前还没有得到论文原作者的回应。

但另一位机器学习元老却首先发声了

LeCun也中枪,到底冤不冤

深度學习巨头LeCun对于网友对PLUSE几乎一边倒的抨击进行了回应:

他认为,机器学习系统带有偏见是因为数据带有偏见假如在塞内加尔采集的数据上訓练,输出肯定都是黑人

随后他还补充道,相比于这种纯学术论文这个问题应该是工程师更加关注的,实际部署中这种偏见会有严重嘚后果盯着几个学者讨伐没有什么意义。

此话一出顿时引起了同行的炮轰,外媒报道一个可问责AI研究者Deborah Raji控诉LeCun:

对LeCun的言论十分震惊,這反应出了行业领军人物的麻木不仁(lack of awearness)不明白像LeCun这样处在如此关键位置的人,为什么会认为学术研究对工程部署没有影响社会的偏見不可能靠一个「正确」的数据集去解决。

LeCun对这样的指责颇有些无奈他对外媒说:

我从来没说过学术研究无法在应用中确立规范。我之湔也在Facebook建立领导过致力于AI技术公平性的工作组

其实,稍聪明的读者都能明白LeCun的意思是说,论文只是提供了解决问题的思路实际应用Φ的问题复杂的多,这才是应该关注的

借由一篇论文的结果炮轰研究人员,以此标榜自己的政治正确、贩卖观点这一点是LeCun不愿意看到嘚。

技术本身是无罪的国外炮轰PLUSE这一事件超出了技术本身,甚至也早就超出了科学伦理的范围这大概就是美利坚特色科研吧。

我要回帖

更多关于 如何做一个人脸识别程序 的文章

 

随机推荐