消费品安全
more ...
消费品是指用来满足人们物质和文化生活需要的社会产品。其范围包括家电、儿童用品(包括玩具)烟花爆竹等产品。由于消费品遍布于社会生活的各个方面,因此其安全性被各个国家所重视。欧盟、美国、加拿大和澳大利亚等国家先后发布自己的消费品安全法规(法案),如欧盟的《通用产品安全指令》(2001/95/EC)和各种特殊产品安全指令,美国的《消费品安全法案》(CPSC)及《消费品安全改进法案》(CPSIA),加拿大的《加拿大消费品安全法案》(CCPSA),澳大利亚的《澳大利亚消费者法案》(ACL)。这些法规(案规)规定了消费品安全的基本要求,以保护本国消费者的人身和财产安全
食品安全
more ...
随着全球经济一体化和食品贸易国际化,食品安全已成为一个世界性的挑战和全球重要的公共卫生问题,各国纷纷建立相应的食品技术性贸易壁垒体系。为了顺利跨越这些技术壁垒,出口企业必须付出很大精力关注频频发生的问题并及时采取相应措施。研究专题旨在对我国食品出口企业遭遇到国外市场的主要技术壁垒,进行重点分析和研究,帮助我国食品出口企业跨越目标市场国的技术壁垒,从而顺利进入目标国市场。
能源与环境
more ...
能源是人类社会发展不可缺少的物质基础,能源的利用改变着整个世界的经济和社会生活面貌。随着世界经济的飞速发展,对能源的需求呈急剧上升的趋势,世界各国在传统能源如煤、石油、天然气等方面遭遇了瓶颈,由此引发的资源短缺和气候变化等问题也日益突出。为实现经济的可持续发展,各国政府已经开始加大对能源节约的研究,大力发展新能源和各项节能减排技术,并以国家规章制度的形式保证各项措施的成效,如日本的领跑者计划、欧盟的生态设计指令、美国的能源之星等。研究国外能源与环境相关法规和标准,可以帮助相关出口企业积极应对技术壁垒,降低经济损失。
一带一路贸易
more ...
2013年9月7日,国家主席习近平在哈萨克斯坦纳扎尔巴耶夫大学作题为《弘扬人民友谊 共创美好未来》的演讲,提出共同建设 “丝绸之路经济带”。2013年10月3日,习近平主席在印度尼西亚国会发表题为《携手建设中国—东盟命运共同体》的演讲,提出共同建设 “21世纪海上丝绸之路”。“丝绸之路经济带”和 “21世纪海上丝绸之路”简称“一带一路”倡议。
陈慧敏,女,南京理工大学项目管理工程硕士学位,正高级工程师,主要研究方向:技术性贸易措施研究与应对、区域标准化研究。科研项目:先后主持江苏...
程光伟,男,1984年4月出生,东华大学纺织工程专业毕业,研究生学历,硕士,主要研究方向:纺织及轻工行业技术性贸易措施研究。 科研项目:先后参...
刘颖,女,1977年1月出生,南京理工大学材料科学与工程专业博士研究生毕业,原江苏省质量技术监督局博士后工作站出站博士后(化学与工程专业),高...
庞淑婷,女,1985年12月出生,浙江大学农业昆虫与害虫防治专业博士,原国家质检总局WTO/SPS通报评议专家。主要研究方向:技术性贸易措施研究和农业...
冯竹,男,1990年2月出生,河海大学软件工程专业研究生在读,助理工程师,主要研究方向:技术性贸易措施研究(机电能效方向),食品添加剂研究。科...
汪洋,女,1989年7月出生,南京医科大学药物分析硕士研究生毕业,高级工程师。主要从事农产食品、化学品技术性贸易措施研究工作,熟悉气相色谱、液...
市县子平台
南京
无锡
徐州
常州
苏州
南通
连云港
淮安
盐城
扬州
镇江
泰州
宿迁
昆山
泰兴
沭阳
产业子平台
ISO/IEC发布全球首个AI可解释性国际标准
发布日期: 2025-10-24 来源:tbtguide 字号: [ 大 中 小 ]
2025年9月,国际标准化组织(ISO)与国际电工委员会(IEC)联合发布了技术规范ISO/IEC TS 6254:2025《信息技术 人工智能 机器学习模型与人工智能系统可解释性与可理解性的目标及方法》。该标准作为全球范围内首个系统性地为AI可解释性提供框架与指南的国际文件,旨在为构建可信、可靠、负责任的人工智能奠定关键基石,回应了全球对AI决策透明性日益迫切的监管与伦理需求。
当前,AI可解释性领域因参与方众多而长期面临术语不统一的挑战,“可解释性”、“可理解性”、“透明度”等概念常被混用。ISO/IEC TS 6254 的首要贡献在于厘清了核心概念。
标准明确定义:可解释性是AI系统的一种属性,使特定人类受众能够理解系统行为的原因;而可理解性是人类理解这些原因后产生的结果。通过使用“可解释性”作为统称,该标准为学术界、产业界、监管机构和用户提供了清晰一致的沟通基础。贯穿AI全生命周期,服务多元利益相关方标准的核心内容极具实践指导价值。它并未将可解释性视为单一技术问题,而是从AI系统全生命周期(从概念设计、开发验证到部署运营及退役)出发,详细阐述了不同阶段所需考虑的可解释性要点。更为重要的是,标准精准识别并分析了11类关键利益相关方的差异化目标与需求:
AI开发者可利用可解释性来调试模型、提升系统安全性与鲁棒性。
AI用户可藉此判断AI决策的可靠性,识别潜在偏见。
审计方与监管机构可将其作为评估系统合规性与风险的重要依据。
受AI决策影响的个体则有权要求获得对其特定决策的解释。
该标准建立了一个属性分类法,涵盖了解释需求的性质、解释呈现的形式以及实现可解释性的技术路径(如基于特征的解释、事后解释等),并讨论了诸如全局解释与局部解释等关键特性,帮助从业者根据具体场景(例如,是需要理解整个模型的逻辑,还是仅需解释某一个别决策)选择最合适的方法。
来源:ISO官网
相关文章