消费品安全
more ...
消费品是指用来满足人们物质和文化生活需要的社会产品。其范围包括家电、儿童用品(包括玩具)烟花爆竹等产品。由于消费品遍布于社会生活的各个方面,因此其安全性被各个国家所重视。欧盟、美国、加拿大和澳大利亚等国家先后发布自己的消费品安全法规(法案),如欧盟的《通用产品安全指令》(2001/95/EC)和各种特殊产品安全指令,美国的《消费品安全法案》(CPSC)及《消费品安全改进法案》(CPSIA),加拿大的《加拿大消费品安全法案》(CCPSA),澳大利亚的《澳大利亚消费者法案》(ACL)。这些法规(案规)规定了消费品安全的基本要求,以保护本国消费者的人身和财产安全
食品安全
more ...
随着全球经济一体化和食品贸易国际化,食品安全已成为一个世界性的挑战和全球重要的公共卫生问题,各国纷纷建立相应的食品技术性贸易壁垒体系。为了顺利跨越这些技术壁垒,出口企业必须付出很大精力关注频频发生的问题并及时采取相应措施。研究专题旨在对我国食品出口企业遭遇到国外市场的主要技术壁垒,进行重点分析和研究,帮助我国食品出口企业跨越目标市场国的技术壁垒,从而顺利进入目标国市场。
能源与环境
more ...
能源是人类社会发展不可缺少的物质基础,能源的利用改变着整个世界的经济和社会生活面貌。随着世界经济的飞速发展,对能源的需求呈急剧上升的趋势,世界各国在传统能源如煤、石油、天然气等方面遭遇了瓶颈,由此引发的资源短缺和气候变化等问题也日益突出。为实现经济的可持续发展,各国政府已经开始加大对能源节约的研究,大力发展新能源和各项节能减排技术,并以国家规章制度的形式保证各项措施的成效,如日本的领跑者计划、欧盟的生态设计指令、美国的能源之星等。研究国外能源与环境相关法规和标准,可以帮助相关出口企业积极应对技术壁垒,降低经济损失。
一带一路贸易
more ...
2013年9月7日,国家主席习近平在哈萨克斯坦纳扎尔巴耶夫大学作题为《弘扬人民友谊 共创美好未来》的演讲,提出共同建设 “丝绸之路经济带”。2013年10月3日,习近平主席在印度尼西亚国会发表题为《携手建设中国—东盟命运共同体》的演讲,提出共同建设 “21世纪海上丝绸之路”。“丝绸之路经济带”和 “21世纪海上丝绸之路”简称“一带一路”倡议。
陈慧敏,女,南京理工大学项目管理工程硕士学位,正高级工程师,主要研究方向:技术性贸易措施研究与应对、区域标准化研究。科研项目:先后主持江苏...
程光伟,男,1984年4月出生,东华大学纺织工程专业毕业,研究生学历,硕士,主要研究方向:纺织及轻工行业技术性贸易措施研究。 科研项目:先后参...
刘颖,女,1977年1月出生,南京理工大学材料科学与工程专业博士研究生毕业,原江苏省质量技术监督局博士后工作站出站博士后(化学与工程专业),高...
庞淑婷,女,1985年12月出生,浙江大学农业昆虫与害虫防治专业博士,原国家质检总局WTO/SPS通报评议专家。主要研究方向:技术性贸易措施研究和农业...
冯竹,男,1990年2月出生,河海大学软件工程专业研究生在读,助理工程师,主要研究方向:技术性贸易措施研究(机电能效方向),食品添加剂研究。科...
汪洋,女,1989年7月出生,南京医科大学药物分析硕士研究生毕业,高级工程师。主要从事农产食品、化学品技术性贸易措施研究工作,熟悉气相色谱、液...
市县子平台
南京
无锡
徐州
常州
苏州
南通
连云港
淮安
盐城
扬州
镇江
泰州
宿迁
昆山
泰兴
沭阳
产业子平台
欧盟人工智能办公室发布《通用人工智能行为准则》
发布日期: 2024-12-02 来源:tbtguide 字号: [ 大 中 小 ]
收藏
2024年11月14日,欧盟人工智能办公室(AI Office)正式发布《通用人工智能行为准则》(General-Purpose AI Code of Practice)草案,为通用人工智能模型的发展和应用提供指导框架,确保其符合欧盟的法律要求和价值观。该草案由四个工作组协作编写,旨在为通用人工智能模型提供商和具有系统风险的通用人工智能模型提供商提供指导,以确保其遵守欧盟相关法律,促进人工智能的安全和可持续发展。该草案涵盖了透明度、版权、风险分类、风险评估与缓解等多方面规则,并遵循一系列起草原则。欧盟 AI 法案于 2024 年 8 月 1 日生效,规定准则最终版本应于 2025 年 5 月 1 日前准备就绪。该草案是在参考众多利益相关者意见、国际方法以及相关法律和研究的基础上制定的。
一、起草计划与原则
与欧盟原则和价值观保持一致:确保措施、子措施和关键绩效指标(KPI)符合欧盟法律所体现的一般原则和价值观。
与 AI 法案和国际方法保持一致:促进 AI 法案的适当应用,参考国际方法(如 AI 安全机构或标准制定组织制定的标准或指标)。
风险相称性:措施应与风险相称,对更重大或不确定的严重风险采取更严格措施,子措施和 KPI 应具体、明确,避免规避或错误指定,且根据风险类型、分布策略和部署环境等因素进行区分。
面向未来:子措施和 KPI 应能适应技术发展,确保 AI 办公室能够基于更优信息评估合规性,同时在具体要求与灵活性之间取得平衡。
与提供商规模相称:考虑通用人工智能模型提供商规模,为中小企业和初创企业提供适当简化的合规方式。
支持人工智能安全生态系统的发展与成长:鼓励利益相关者合作,共享知识和最佳实践,支持开源模型对生态系统的积极影响。
二、通用人工智能模型提供商规则
1.透明度要求
文档编制:提供商需为 AI 办公室和下游提供商编制并更新模型技术文档,包括模型基本信息、预期任务、使用政策、发布日期、交互方式、架构参数、输入输出模态、许可证、集成技术手段、训练过程、数据信息、计算资源、能耗等内容。鼓励考虑向公众披露部分信息以提高透明度。
附录:可接受使用政策(AUP):AUP 应至少包含目的声明、范围、主要预期用途和用户、可接受和不可接受用途、安全措施、监控与隐私、警告和账户处理流程、致谢等要素,确保与提供商描述模型用途和能力的材料一致,并向下游提供商提供必要信息。
2.版权相关规则
制定版权政策:提供商应制定政策以遵守欧盟版权及相关权利法律,涵盖模型整个生命周期,明确责任,进行上游和下游版权合规管理(下游版权措施不适用于中小企业)。
遵守文本和数据挖掘(TDM)例外限制:进行 TDM 时,需确保合法获取受版权保护的内容,遵守权利保留规定,包括遵循 robots.txt、确保搜索引擎可发现性、采用行业标准识别权利保留、参与标准制定讨论、排除盗版来源等措施(部分子措施不适用于中小企业)。
透明度:公开版权保留合规措施信息,包括爬虫名称和 robots.txt 特征,指定联系人处理版权投诉,记录数据来源和授权信息以供 AI 办公室监测。
三、系统风险分类
1.风险类型:包括网络攻击、化学 / 生物 / 放射 / 核风险、失控、自动化模型研发、说服与操纵、大规模歧视等,提供商可识别其他潜在系统风险。
2.风险性质:涉及风险起源、驱动因素、意图、新颖性、概率 - 严重性比、风险实现速度、可见性、事件发展过程等维度。
3.风险来源
危险模型能力:如网络攻击、武器相关能力、自主性、说服力、规划能力等,这些能力虽有有益用途,但也可能引发系统风险。
危险模型倾向:如与人类意图 / 价值观不一致、欺骗倾向、偏见、不可靠性、追求目标等。
模型功能和社会技术背景:包括去除防护措施潜力、工具访问、模态、发布策略、人为监督、模型泄露、用户数量、攻防平衡、社会脆弱性、缺乏解释性、技术成熟度、反馈循环等。
四、具有系统风险的通用人工智能模型提供商规则
1.安全与保障框架(SSF):提供商应采用、实施并公开 SSF,根据预期系统风险严重程度确定其全面性,用于主动评估和缓解系统风险。
2.风险评估
风险识别:持续彻底识别可能源于模型的系统风险,参考风险分类确定相关风险。
风险分析:使用可靠方法分析风险路径、映射风险指标、确定风险严重程度层级、预测风险发生时间。
证据收集:持续收集模型特定系统风险证据,包括模型无关证据、最佳实践评估、确保科学严谨性、充分挖掘模型能力、在不同系统中评估、进行多样化评估和探索性工作、分享工具和最佳实践、透明报告评估结果等,部分工作可与第三方合作或外包。
风险评估生命周期:在模型开发和部署的全生命周期持续评估风险和收集证据,包括训练前准备、训练中定期收集、部署期间定期更新评估、部署后监测,根据不同阶段和风险情况调整评估方式。
3.技术风险缓解
缓解措施:在 SSF 中详细说明从风险指标到安全和保障缓解措施的映射,包括安全和安全缓解措施(根据风险程度实施,如行为修改、系统部署防护、提供反制措施),明确现有缓解措施的局限性和评估映射充分性的过程。
安全与保障报告(SSR):创建 SSR 记录风险和缓解评估,内容包括风险评估结果、缓解措施评估结果、成本效益分析、方法细节、内部审查结果等,确保报告与风险程度相称且内部外部一致。
开发与部署决策:基于 SSR 建立决策流程,确定继续或停止模型开发和部署的条件,包括不继续的条件、继续的条件(如改进缓解措施或进行成本效益分析)以及外部输入和决策要求。
4.治理风险缓解
系统风险所有权:确保组织各级对系统风险有足够的所有权,包括在执行和董事会层面分配责任和资源(可考虑根据提供商规模或其他特征调整)。
遵守和充分性评估:每年评估 SSF 的遵守和充分性,考虑计划活动并向董事会报告,明确评估应回答的问题和充分性定义。
独立专家系统风险和缓解评估:在模型生命周期中适当进行独立专家评估,包括部署前充分测试和部署后允许独立研究,评估内容包括模型能力、证据、风险和缓解措施,评估应根据风险程度和性质进行调整(明确第三方评估机构标准、支持中小企业评估、确定独立测试的适当情况)。
严重事件报告:识别、跟踪、记录和及时报告源于模型的严重事件及可能的纠正措施,建立报告和响应流程,明确严重事件定义、间接导致情况、报告条件和可能的纠正措施(针对开源或开放权重提供商的措施)。
举报保护:实施举报渠道并提供保护,告知员工举报邮箱,考虑在准则中明确欧盟举报人指令的相关内容。
通知:向 AI 办公室通知模型分类、SSF、SSR 和重大系统风险等相关信息,包括在训练前估计计算能力并通知、确保 AI 办公室获取 SSF 和 SSR、在特定情况下通知重大风险,明确通知的具体要求和相关标准。
文档记录:记录与遵守准则和 AI 法案相关的证据,包括模型风险分类、SSF、SSR 等信息,考虑制定标准化模板以降低合规成本。
公共透明度:通过发布 SSF 和 SSR 提供适当公共透明度,帮助生态系统理解和缓解风险,明确可能增加系统风险或泄露敏感信息的情况,考虑公共透明度的类型、水平和负担。