? 英亚体育最新平台强缘_环球彩票平台登陆页

应用

技术

物联网世界 >> 物联网新闻 >> 物联网热点新闻
企业注册个人注册登录

AI画画也有种族歧视?艺术加工软件把黑人变白人

2020-12-30 09:14 智东西

导读:据分析,英亚体育最新平台:这种偏见现象的背后有两层原因,一方面是标记数据集中各类样本数量不均衡,一方面是标记过程受标记员主观影响较大。

▲AIportraits将黑肤色女星泰莎·汤普森(Tessa Thompson)肤色调亮

另一款艺术加工工具Abacus直接把拉斐尔(Raphael)和皮耶罗·迪科西莫(Piero di Cosimo)作品中的长发年轻男子识别为女性。

三、原因分析:标记数据集的样本失衡

富士康的研究团队认为,这种偏见主要来自前期训练AI时使用的标记数据集。一方面,受到研发人员偏好影响,这些标记数据集涉及的样本数量可能不够均衡。以AI Portraits为例,该应用程序的训练样本便是以文艺复兴时期的白人肖像为主。

另一方面,给数据集做标注或是打标签的过程中可能存在标准不一致的情况。注释者拥有不同的偏好、文化和信念,这些差异可能会在他们创建的标签中得到反映。

论文指出,各类训练样本的数量并不均衡,比如照片很多、雕塑很少;欧洲艺术家很多、本土艺术家很少;文艺复兴、现代艺术运动作品居多,其他思潮作品很少。数据集也未能体现出不同种族、风格的面孔差异,因此出现了代表性偏差。

研究团队警告说,为艺术生成AI建模时,如果忽略某些细微因素,将造成社会、文化、政治方面的错误历史认知,从而影响人们正确地认识某些重要史实。

他们敦促AI研究人员和从业人员在考虑相关社会政治因素的前提下,应谨慎检查AI系统的设计原理。

结语:机器理性仍靠人智实现

还记得《终结者》系列中,施瓦辛格扮演的机器人T-800眼冒红光、冷面无情的模样,然而事实和科幻相去甚远,机器人目前既没有自主思考能力,更没有人类独有的情感和欲望。

人工智能仍依赖算法编程实现。因此,人工智能的好与坏、公平与偏颇全掌握在人类手中,这就对人类软件开发专家提出了更高的要求。

俗话说“上梁不正下梁歪”,如果人类开发者在训练AI的过程中,没有很好地考虑到社会公平的因素,那么个人认识的局限性和偏差便会传递到AI上。

比如说,谷歌BERT等大语言模型的训练样本就忽略了贫困地区尚不能联网的弱势群体,艺术生成AI的训练样本又主要以西方白人肖像为主。

不管是在艺术创作领域,还是在语言模型领域,AI训练样本不均衡导致的代表性偏差都是一个值得关注和深思的问题。若想充分发挥机器的理性优势,人类开发者在设计系统架构和训练AI的过程中必须更加谨慎细致。


申博亚洲娱乐网真人荷官 优发娱乐现金直营 凯撒皇宫开户网站 齐发现金网址导航 博狗娱乐网上
云顶盘口 188金宝博代理专员 永乐娱乐官网直营 永盛集团sb61网址大全 趣赢娱乐在线开户
南通同城棋牌中心下载 太阳城申博官方网 9亿娱乐线路检测 007彩票网站 澳门十三张赌场
易博彩票 滨海国际娱乐真人游戏 太阳城百家乐 www.86msc.com 申博老虎机