4月11日,国家互联网信息办公室就《生成式人工智能服务管理办法(征求意见稿)》(以下简称《征求意见稿》)公开征求意见。
《征求意见稿》重点强调了生成式人工智能产品训练数据及生成内容的真实性。其中,就提供生成式人工智能产品或服务作出五大要求,提出“利用生成式人工智能生成的内容应当真实准确,采取措施防止生成虚假信息”。同时,也对产品的训练数据作出五项要求,提出“能够保证数据的真实性、准确性、客观性、多样性”。
“《征求意见稿》的出台,意味着AI行业的标准化步伐正加快,AIGC产业可持续发展的政策红利期即将来临。”中关村智能科技发展促进会副会长兼首席数字经济学家陈晓华在接受《证券日报》记者采访时表示,从相关条例可以看出,我国极为重视此轮AI所引领的科技变革,有关部门在鼓励自主创新、推广应用、国际合作的同时,也致力于避免“先污染后治理”的困境。
强调生成内容真实性
随着ChatGPT火爆市场,大众对生成式人工智能技术的认知程度不断提升,激发市场需求的同时,也加速了相关企业布局。
不过,AIGC行业发展也面临着虚假信息的困扰。中国信息通信研究院和京东探索研究院发布的《人工智能生成内容(AIGC)白皮书(2022年)》显示,近年来,随着人工智能技术不断成熟,机器深度学习后生成的内容愈发逼真,能够达到“以假乱真”的效果。
在此背景下,《征求意见稿》着重强调了生成式人工智能产品训练数据及生成内容的真实性。
“这将引领‘可信’生成式人工智能服务的发展。”大成律师事务所高级合伙人肖飒对《证券日报》记者表示,对于生成式人工智能服务来说,“可信”是最难以达成的。核心问题指向服务生成内容可信程度的波动化,一时超常的准确表现,一时难以分辨的潜藏错误,是阻碍对该类服务赋予更多信任的主要原因。
此外,《征求意见稿》对用于生成式人工智能产品的预训练、优化训练数据也进行了明确要求:一是要符合《中华人民共和国网络安全法》等法律法规的要求;二是不含有侵犯知识产权的内容;三是数据包含个人信息的,应当征得个人信息主体同意或者符合法律、行政法规规定的其他情形;四是能够保证数据的真实性、准确性、客观性、多样性;五是国家网信部门关于生成式人工智能服务的其他监管要求。
对此,肖飒认为,对服务背后的数据进行统一要求,最直接的意义便是对模型输入端进行优化,从而尽可能地保证输出端内容的纯净性、准确性。从长远来看,这是对整个数据相关产业链提出的新要求,是对整个行业数据收集、传输、交易、检验、维护与保护的全面规制,也符合现行立法对数据处理的各方面要求,能够极大程度地防止后续违法行为的发生。
《比较》杂志研究部主管陈永伟对《证券日报》记者表示,总体来看,《征求意见稿》相关要求给生成式AI发展划定界限的同时,也为其留下了充分的发展空间,从而扬长避短,将技术发展的正向作用发挥到最大。
服务前应申报安全评估
在国内AIGC发展早期做好合规工作,可为行业后续稳健发展保驾护航。据《证券日报》记者不完全梳理,截至目前,已有百度、华为、腾讯、阿里、京东、360等互联网企业布局生成式人工智能业务,并且部分企业已经推出相应产品。
“生成式人工智能快速发展,带来了诸多信息安全方面的风险。”平安证券研报表示,一方面,信息泄露风险,大量的敏感数据和AI交互之后,可能会被应用于迭代训练,造成敏感信息的泄露,尤其是国家、机构和个人信息,都面临着潜在风险;另一方面,AIGC被恶意应用的风险也在上升,可能被应用于恶意代码生成,发展智能化网络攻击武器,加大了网络安全防护难度。
深圳市信息服务业区块链协会会长郑定向对《证券日报》记者表示,生成式人工智能产品目前仅是一个机器程序,没有法律主体身份和行为能力,但如果被用来执行非法行为,例如攻击计算机系统、盗窃数据或参与欺诈等,就会成为犯罪行为的工具或手段。基于此,为了确保人工智能的合法性和公正性,需要对提供生成式人工智能产品或服务进行必要的法律约束。
为此,《征求意见稿》强调生成式人工智能产品的安全性。《征求意见稿》提出,国家支持人工智能算法、框架等基础技术的自主创新、推广应用、国际合作,鼓励优先采用安全可信的软件、工具、计算和数据资源。但利用生成式人工智能产品向公众提供服务前,应申报安全评估。
郑定向表示,生成式人工智能技术和产品的发展归根结底是为了服务于人,科学、严密的法律规范是发展过程中必不可少的重要环节。
平安证券表示,新技术发展和监管合规是相辅相成的关系,离不开监管在机制体制建设上的完善,以及产业政策引导。同时,监管政策也正在积极适应信息技术的革新。尤其是AIGC面世以来,监管机构对数据处理主体、数据处理过程以及伴随的国家安全和信息安全的认识也在逐步清晰。预计随着更多AIGC技术的应用落地,一些潜在的风险将更多被认识和暴露,监管侧的监管措施也会更“对症”,《征求意见稿》只是第一步。
网站建设开发|APP设计开发|小程序建设开发