以ChatGPT为代表的AI大模型技术席卷全球的同时,也引起了广泛争议。如今,监管脚步正在快速迫近。
6月中旬,斯坦福大学AI研究实验室发布了一项对AI大模型的研究的结果。研究以十个AI大模型为研究对象,评估他们是否达到欧盟AI法案的标准。结果显示,这些顶尖的AI模型均没有达标。
斯坦福研究团队在报告中表示:“主要基础模型提供商目前基本上没有遵守这些草案要求。他们很少披露有关其模型的数据、计算和部署以及模型本身的关键特征的足够信息。尤其是,他们不遵守草案要求来描述受版权保护的训练数据的使用、训练中使用的硬件和产生的排放,也不披露如何评估和测试模型的方式。”
欧盟AI法案是世界上第一个AI监管相关法案,从被提出开始即引起全球广泛关注,也会影响大多数AI大模型在欧洲的发展前景。
6月14日,欧洲议会以299票赞成、28票反对、93票弃权的表决结果通过了关于人工智能法案的草案。人工智能草案的内容中,包括明确了关于Open AI和谷歌等模型的义务。法规旨在确保人工智能技术对用户能够保持透明、公平和安全,计划将于2024年生效。
在斯坦福大学的研究中,研究团队先从监管草案选取出22项要求,再以是否有意义地使用公众信息作为标准,最终选择出12项评估要求,为每个评估要求配备了5点评分标准。在此基础上,研究人员将这12项要求进行维度划分为四个层次,分别是数据来源、数据处理、模型本身和实践应用。
各大AI模型的得分与满分仍有很大差距。主要的问题集中在:版权责任不明确;能源使用报告不均衡;风险缓解方面披露不充分;缺乏评估标准或审计生态系统等等问题。
各家大模型提供商的合规性差异也很大。一些AI大模型公司的得分低于25%(AI21 Labs、Aleph Alpha、Anthropic)。目前综合得分最高的,是AI大模型开源社区Hugging Face。
最近几个月,大公司的AI发布会同样是证明。在Open AI的GPT-4和谷歌的PaLM2的发布会上,他们也都没有披露关于数据、评估方式等相关内容。
斯坦福团队表示,欧盟所出台的法规具备可行性,目前的AI模型遵守法规要求并非难题。他们在报告对政策制定者、全球政策制定者、模型提供商数方提供建议。比如,AI模型的政策制定者需要在欧盟AI法规的要求下,优先考虑模型的透明度,对于基础模型的开发、使用和性能有关的披露等,这都会提高整个人工智能生态系统的透明度。
而对于模型提供商而言,行业标准是比较大的挑战。在AI大模型领域尚没有成型标准前,斯坦福团队也提出了一些实用的建议——比如改善为大模型开发人员提供的文档。“提供商可以而且应该通过模仿最合规的大模型提供商,来提高自身的合规性。”
作者:黄金琼,头图:IT小熊,观点代表个人。本站不对内容的真实性及完整性作任何承诺。