1. 主页 > AI行业 > 行业观察

大模型监管更严,AI伦理问题急需重视

10月8日,科技部与其他九部门联合发布的《科技伦理审查办法(试行)》正式公布,并将于2023年12月1日起实施。该《办法》规定,算法、模型和系统的设计、实现、应用等需遵循公平、公正、透明、可靠、可控等原则,同时需符合国家相关要求,伦理风险评估和应急处置方案需合理,用户权益保护措施需全面并得当

大模型伦理是指在使用大规模语言模型进行自然语言处理任务时,应遵循的道德原则和规范,以确保人工智能技术的合理使用和人类社会的可持续发展

根据赛迪顾问发布的《2023大模型现状调查报告》显示,截至2023年7月底,国外累计发布大模型138个,中国则累计有130个大模型问世。《中国人工智能大模型地图研究报告》显示,从全球已发布的大模型分布看,中国和美国大幅领先,超过全球总数的80%,其中,参数在10亿规模以上的大模型中国已发布79个。

中国已形成了紧跟世界前沿的大模型技术群,接下来,大模型产业或将迎来科技伦理的考验。

AI

大模型伦理涉及以下几个方面。

1. 数据隐私和安全

大模型需要大量的数据来进行训练和推理,但这些数据可能包含用户的个人隐私信息,甚至国家安全机密等敏感信息。因此,大模型伦理首先要求数据隐私保护,对数据进行脱敏处理,确保数据在采集、存储、传输和使用过程中的安全性和保密性。

2. 偏见和歧视

训练数据可能存在偏见和歧视,例如数据可能集中在某些群体或地区,而忽视其他群体或地区。大模型可能会放大这些偏见和歧视,从而导致不公平的结果。因此,大模型伦理要求对数据进行去偏见处理,采用多样性和平衡性的数据进行训练,以减少模型偏见和歧视。

3. 透明性和可解释性

大模型推理结果可能很复杂,难以理解和解释。因此,大模型伦理要求模型具有透明性和可解释性,使得用户可以理解和信任模型推理的结果。这可以通过增加模型的可解释性和可视化来实现。

4. 人机交互和伦理准则

大模型广泛应用于人机交互领域,例如语音助手、聊天机器人等。人机交互中涉及到的伦理准则包括权责清晰、公正和公平等。大模型伦理要求明确人机交互中的权责关系,确保人工智能技术的合理使用,避免误导用户或做出不道德的决策。

5. 安全可控性

大模型具有强大的学习能力,但同时也可能产生不可预测的行为。例如,在某些场景下,大模型可能会产生攻击性或危险的行为。因此,大模型伦理要求在使用大模型时,必须考虑安全可控性,采取措施确保模型的可控性和安全性。

举例来说,OpenAI公司的GPT-3模型被广泛应用于自然语言处理任务中,但它也存在一些伦理问题。首先,GPT-3模型的训练数据可能包含很多偏见和歧视,因为它的数据主要来自于互联网上的公开信息。其次,GPT-3模型的输出结果可能存在不可预测性,例如在某些场景下可能会产生攻击性或危险的行为。为了解决这些问题,OpenAI公司采取了一些措施,例如开发数据脱敏工具来保护用户隐私,同时增加了模型的透明性和可解释性,以便用户可以更好地理解和信任模型输出结果。

引入伦理审查机制以后,一个新的AI框架或产品是否能够面世将不只是取决于市场、资金、技术等因素,还要考虑伦理因素。目前的科技伦理审查还是采取清单制,也就是说,清单内的需要伦理审查复核。这也有效地防止了科技伦理审查被盲目扩大化的风险。”

延伸阅读:

AI伦理指的是什么?

商汤智能田丰:AI伦理有三大基石

本文由小熊AI网发布,不代表小熊AI网立场,转载联系作者并注明出处:https://www.xiaoxiong360.com/html/industry/1046.html