科技部专家周迪:AI产品面世要考虑伦理因素
10月8日,科技部与其他九部门联合发布的《科技伦理审查办法(试行)》正式公布,并将于2023年12月1日起开始实施。
该《办法》规定,在进行算法、模型和系统的设计、实现、应用等过程中,必须遵守公平、公正、透明、可靠、可控等原则,并符合国家的相关要求。同时,这些算法、模型和系统在设计和应用的过程中,必须经过伦理风险评估和审核,并制定合理的应急处置方案,以确保用户权益得到全面、适当的保护。
科技部国家科技专家库专家周迪在接受记者时谈到:
1、在生命科学领域,科技伦理一向有着比较严格完善的执行过程,这次把它扩展到了大模型领域,主要是防止在该方面可能存在的风险,旨在将伦理道德融入人工智能全生命周期,为从事人工智能相关活动的自然人、法人和其他相关机构等提供伦理指引。
2、接下来,科研、产品上市周期需要纳入科技伦理审查的因素,因为中国将伦理审查作为强制程序,要求企业的研发活动得到企业内部科技伦理(审查)委员会的批准,并且可能需要报请主管部门批准。这意味着产品的科研、投入周期可能会延长,企业需在新技术研发伊始就将科技伦理的审查、复核流程纳入规划,避免因为伦理审查延误产品进程。
3、引入伦理审查机制以后,一个新的AI框架或产品是否能够面世将不只是取决于市场、资金、技术等因素,还要考虑伦理因素。
4、当然也希望科技伦理审查形成一个比较好的规范和尺度,防止过度。目前的科技伦理审查还是采取清单制,也就是说,清单内的需要伦理审查复核。这也有效地防止了科技伦理审查被盲目扩大化的风险。
延伸阅读:
本文由小熊AI网发布,不代表小熊AI网立场,转载联系作者并注明出处:https://www.xiaoxiong360.com/html/record/1047.html