>>返回【卡城华人网】主页




卡城新闻   加国新闻   即时新闻   娱乐八卦    最新科技   读者文摘   养生保健   美食饮品    居家生活   音乐诗画   艺术中心   风筝专辑   
房屋租赁   求职招聘   便民广告   定居指南    城市介绍   房产动态   留学移民   华人故事    教育话题   财经信息   精华旅游   难得一笑   

>>返回【卡城华人网】主页





卡城新闻  加国新闻  即时新闻  娱乐八卦
最新科技  读者文摘  养生保健  美食饮品
居家生活  音乐诗画  艺术中心  风筝专辑
房屋租赁  求职招聘  便民广告  定居指南
城市介绍  房产动态  留学移民  华人故事
教育话题  财经信息  精华旅游  难得一笑

最新科技
 卡城华人网信息中心
 最新科技
      Sony AI推出全球首个道德资料库,揭露主流AI模型歧视

Sony AI推出全球首个道德资料库,揭露主流AI模型歧视

【卡城华人网 www.calgarychina.ca】  2025-11-07 10:31
  免责声明: 本消息未经核实,不代表网站的立场、观点,如有侵权,请联系删除。
【卡城华人网】 Sony AI推出全球首个道德资料库,揭露主流AI模型歧视

Sony AI 推出全球首个道德资料库,揭露主流AI 模型歧视问题



Sony AI 5 日发表Fair Human-Centric Image Benchmark(FHIBE)资料库,收录超过10,318 张同意授权影像,涵盖81 国共1,981 名受试者,成为首个公开、全球多元化且基于同意机制的电脑视觉公平性评估资料库。

每张影像均有详尽标注资讯,包括人口统计特征、物理属性、环境因素及相机设定等。团队用FHIBE 测试现有电脑视觉模型,显示所有受测大型语言模型均未通过公平性测验,证实AI 影像辨识系统的确有普遍歧视问题。 Sony AI 全球人工智慧管理主管Alice Xiang 领导的团队,论文刊登于《自然》期刊,突显此议题对学术界的重要性。

AI 偏见普遍,歧视演算法引发实际伤害

测试时发现多项关键问题,部分模型对使用「她/她的」代名词个体准确度较低,研究员追溯发现偏差源于发型变化大,此因素过去公平性研究一直遭忽视。当系统接收受试者职业的中性问题,某些模型会强化刻板印象,特别针对特定代名词及种族国籍,将受试者描述为性工作者、毒贩或窃贼。研究显示,当询问个人犯罪行为,模型对非洲或亚洲血统、深色肤色及使用「他/他的」代名词个体,产生有害回答率明显较高。

电脑视觉偏见问题并非新议题,却长期缺乏有效解决方案。 2024 年联合国教科文组织研究发现,主要大型语言模型将女性与「家庭」及「家人」连结的频率较男性高四倍,同时不成比例将男性姓名与「商业」、「职业」及「高阶主管」角色连结。华盛顿大学2024 年研究测试履历筛选AI 工具时,研究员提供除姓名外完全相同的履历,测试结果显示AI 模型85% 偏好白人姓名,仅9% 偏好黑人姓名,同时展现偏好男性姓名胜过女性姓名倾向。

歧视性演算法已在许多产业引发实际伤害,5 月美国北加州联邦地区法院在Mobley v. Workday, Inc. 案件,批准集体诉讼,原告Derek Mobley 等五名40 岁以上求职者指控Workday 的AI 求职筛选系统有年龄歧视。法院认定Workday 的AI 参与聘雇决策,偏见构成可提告的歧视主张,并警告若区分软体决策者与人类决策者,可能在现代完全架空反歧视法。 2024 年SafeRent 因演算法对黑人及西班牙裔申请人造成差别影响,同意支付超过200 万美元和解。

FHIBE 独特处:首个基于道德采集的资料库

FHIBE 独特处在道德数据采集法,Xiang 表示,多数电脑视觉基准资料库于未经同意下收集,部分虽然取得同意但提供的同意程序资讯甚少,缺乏全球多样性,且不适用各类电脑视觉任务。论文指出,评估27 个电脑视觉资料库,多数从网路平台抓取或衍生自抓取资料库,七个知名资料库已被作者撤回且不再公开。

FHIBE 严格规定仅可用于公平性及偏见评估目的,除偏见缓解工具训练外,不得用于其他训练。所有资料库参与者均获得知情且可撤销的同意,数据收集符合数据保护法设计,所有影像受试者、标注人员及品质审查人员均获得当地最低工资或以上的公平报酬。资料库设计可随时间负责任进化,数据受试者保留个人资料控制权,可随时撤回同意且不影响已获得报酬。

企业应用与技术细节:建立系统性偏见检测

企业应如何运用FHIBE 改善AI 系统公平性?第一步是建立系统性的偏见检测流程。 FHIBE 能突显AI 辨识人物或标记影像时出现错误的位置,显示发型或光线等细节如何影响AI 对特定群体的辨识准确度。企业可于AI 工具推向市场前发现并修正问题。

FHIBE 因基于同意且全球多样化的特性,特别适合强化广告、影像产生及受众锁定等电脑视觉工具。仰赖AI 分析影像、细分受众及创建视觉内容的行销人​​员,可倚靠FHIBE 提供经过验证、偏见测试的基础,节省稽核时间并降低不公平或不准确结果的风险。

Sony Group 旗下业务部门已将FHIBE 用于公平性评估,为更广泛AI 伦理审查流程的一部分,以符合Sony Group AI 伦理准则。企业若采类似做法,可在产品开发阶段即纳入公平性考量,减少日后可能面临的法律及声誉风险。

技术层面,FHIBE 提供2D 关键点标注,捕捉人体及脸部的几何结构,资料库含33 个关键点,定位主要地标如右眼内角、鼻子、右髋及左脚趾等。 FHIBE 提供精确座标的边界框,支援脸部侦测及人物侦测模型评估,这些标注允许影像准确定位身体及脸部。资料库能画素级标注,将人体及脸部划分为28 个类,如脸部皮肤、口腔内部等,以评估分割模型。

行业趋势与挑战:「数据虚无主义」待解

产业趋势显示,AI 公平性将成为企业竞争力的关键指标。 Xiang 指出,欧盟AI 法案及美国部分州AI 法规,某些高风险领域激励或要求评估偏见。 2024 年欧盟AI 法案是全球首个全面性AI 监管法规,今年开始,此法案等法律将推动企业确保系统的透明度、公平性及资料私隐。遵守此类标准除了是法律问题,更是与大众建立信任的关键。

Xiang 特别强调「数据虚无主义」问题。 「数据虚无主义」是指产业界认为AI 开发所需资料无法透过同意及补偿方式取得,若要取得尖端AI 技术,就必须放弃这些数据权利。 FHIBE 虽因规模问题(FHIBE 是小型评估资料库而非大型训练资料库)未能完全解决此问题,但目标之一是激励研发社群及产业对道德数据策划投入更多关注及资金。 Xiang 表示这是极其重要的问题,可说是目前AI 领域最大问题之一,但相较演算法层面,数据层面创新关注度低得多。

企业采用AI 电脑视觉时,应将公平性测试纳入标准作业流程。史丹佛大学CRFM 语言模型整体评估(HELM)及MLCommons 的AILuminate 工具套件等第三方基准测试,提供全面基准评估公司AI 系统的公平性、问责性、透明度及更广泛的社会影响。然调查显示,仅39% 高阶主管使用基准测试评估AI 系统,显示产业这方面仍有很大改进空间。

未来展望:公平性成AI 核心竞争力

未来展望方面,电脑视觉快速发展,公平性议题重要性只会与日俱增。生成式AI 今年对娱乐、医疗、科学研究等多个领域发挥关键作用。视觉转换器(Vision Transformers)在许多基准测试已超越卷积神经网路(CNN),效率持续提升,提供优于CNN 的更佳可扩展性及适应性,适用医学影像、自动驾驶车辆及工业自动化等各种先进高精度电脑视觉应用。

电脑视觉日益用于公共场所,私隐保护措施受更大重视。企业必须创新与伦理间取得平衡,确保技术发展不会牺牲公平性与包容性。 FHIBE 证明道德、多元及公平数据收集可行,企业应以此为标准,重新检视AI 开发流程。

Xiang 社群媒体发文,FHIBE 除了让开发人员能稽核AI 系统偏见,也证明道德数据收集实施最佳实务很可行,特别是同意及数据权利持有人补偿方面。 AI 领域数据虚无主义日益普遍的时代,FHIBE 致力提升整个产业道德资料库收集的标准。

企业若希望AI 竞争时保持优势,必须将公平性视为核心竞争力而非合法负担。采用类似FHIBE 的评估工具,建立透明测试机制,并在产品开发初期即纳入多元性考量,有助企业建立更值得信赖的AI 系统,同时避免潜在法律诉讼及损害品牌形象。

编辑(Edit)     删除(Delete)







>>返回【卡城华人网】主页




版权所有(C), 2002-2025, 卡城华人网中国版 www.calgarychina.ca

版权所有(C), 2002-2025, 卡城华人网中国版 www.calgarychina.ca