AI 偏见和歧视,需要穿透审查基础数据
为了避免 AI 算法产生偏见和歧视,可能要求穿透审查 AI 算法的基础数据,也就是基于样本可解释性,审查那些用于训练算法模型的被采集标注的样本是否带有偏向性。举个例子,美图秀秀的 AI 修图模型,使用了大量的东方人面部数据,在处理西方人面部时,不可避免会偏向东方人的面部特征,这里产生了一种模型上的“偏见”,所谓穿透审查,就是要求在训练修图模型时,对各地区、各人种、各肤色等等特征,在基础数据上进行公平分配。在各国纷纷出台涉及 AI 算法规范的前提下,为了避免出现这样的偏见或歧视而产生的市场反应,会是什么样的?在样本可解释性上,很有可能出现一个“合规数据集”市场,有一类专业的基础数据提供厂商...