智通财经APP获悉,东吴证券发布研究报告称,中国AI监管现阶段关注内容合规,生成内容需保证真实准确,体现核心价值观,不得对国家安全、经济发展和社会稳定构成威胁与挑战。有图像、视频鉴真或内容监管能力的企业有望率先受益于AI监管政策的出台与落地。建议关注AI监管相关公司:人民网(603000.SH)、新华网(603888.SH)、美亚柏科(300188.SZ)、博汇科技(688004.SH)。
东吴证券主要观点如下:
AI发展引发新的安全问题:以ChatGPT为代表的生成式人工智能正在重塑数字内容的生产方式和消费模式,显著地影响各行各业变革。今年以来,大模型技术与AIGC快速融合发展,大模型生成的内容能够达到“以假乱真”的效果。相应地,应用门槛的不断降低,使得“换脸”、“变声”等手段更容易实现,因AIGC滥用带来的虚假信息、偏见歧视乃至意识渗透等问题无法避免,对个人、机构乃至国家安全都存在较大的风险。因此对生成式人工智能服务的新监管需求也随着而来。目前。AI多带来的新安全问题主要包括AIGC内容安全和数据安全问题。
AI监管:政策与法规先行:考虑到AI可能对社会带来的安全问题,安全标准、法律法规和自我监管是对AI进行监管较为重要的基石。政府层面,亟需出台监管政策对其加以规范,实现监管覆盖全面化,分阶段、全流程规范AIGC相关要素。企业层面,也需要通过被监管以消除社会对AI大模型的不信任。中国政府重视AI产业,国内网信办等7个部委发布的《生成式人工智能服务管理暂行办法》将于2023年8月15日起正式施行,同时《国务院2023年度立法工作计划》显示,《人工智能法》已列入立法计划, AI监管政策正加速推进。
AI监管:平衡创新与安全、监管手段多样:AI监管主要是面向AIGC技术的违规应用,应对AIGC可能给社会、政治、金融、教育带来的危害,这是国家安全、社会安全的关键,因此,对于AI监管来说,要从内容安全机制、技术监管手段等层面进行突围。内容安全机制的原理是通过数据安全控制、算法备案和安全评估、内容安全合规等一系列流程确保生成内容符合法规和监管要求。技术监管手段的原理是利用AI对抗AI,通过海量测试数据集,对AIGC生成式模型的数据、过程、生成内容进行全过程的测试、监管。
AI监管有望催生千亿市场: 2030年我国人工智能核心产业规模将超过1万亿元人民币。一般信息化投入中安全占比至少在5%-10%以上,而由于AI大模型特殊性,AI安全未来将成为所有参与方必须考虑的问题,贯穿从数据标注、模型训练和开发、内容生成、应用开发的事前-事中-事后全过程,投入力度不亚于传统安全投入,因此假设AI监管在整个产业链中的占比按照5%-10%来测算的话,该行预计到2030年国内AI大模型的监管市场规模将达到500-1000亿元。
风险提示:政策落地不及预期,AI监管推进不及预期,行业竞争加剧。