
在科技监管前沿一直处于引领地位的欧盟正加大对人工智能(AI)生成内容的监管力度。欧盟委员会副主席薇拉·尧罗娃(Vera Jourova)在6月5日的新闻发布会上宣布,欧盟将要求科技巨头和内容生产平台如谷歌、YouTube和TikTok等,对其AI生成的图片、视频和文本进行检测,并提供明确的标记,以打击虚假信息的泛滥和恶意利用。
虚假信息问题涉及政治、法律、技术等多个领域,同时也涉及到言论自由和技术伦理等问题,因此需要决策者、技术人员、研究人员和普通用户的共同努力。
尧罗娃担心政府的监管远远跟不上AI生成的速度,这种担忧并不无道理。ChatGPT仅用了两个月的时间就实现了月活跃人数破亿,比上一个爆火的应用TikTok实现这一数字快了7个月。各大科技公司也纷纷投资巨资,加快布局大型模型生态系统。相比之下,监管的速度要远远落后。就欧盟正在推行的虚假信息准则(disinformation code)而言,若要正式成为法律还需要数年时间,尽管欧盟已经是AI监管领域最激进的探索者,因此尧罗娃呼吁科技巨头立即开始标注工作。

各国政策的差异和跨国平台的监管增加了政策协调的难度。目前,大多数科技巨头已经与欧盟签署了虚假信息准则,承诺加大打击虚假信息的力度并定期报告进展。然而,马斯克主导的推特在上个月退出了这个目前仍然是自愿性质的协议。
即使各国监管机构和AI内容生产的科技公司达成了一致,实施相关法律和规则也并非易事。首先,对于虚假信息的认定本身就是一个难题,而且在当今的社交媒体上,新闻图片和合成图片之间已经没有明确的界限。
其次,在AI辅助下生成的虚假信息,应该由谁提供证据并进行监管?如果涉及到诽谤和著作权侵权,可能可以通过民事诉讼来解决,由被害人提起诉讼;如果虚假信息危害公共安全,应该由哪个政府部门提供证据?对于发布虚假信息的个人和公司,应该采取事前监控还是事后惩罚的方式?AI的开发者、使用者、发布者以及发布平台,责任如何分配?这些问题都需要更多的详细讨论。
在国内,政府也在试图探索管理AI及其相关技术的法律法规。近日,国家互联网信息办公室公开征求意见《生成式人工智能服务管理办法(征求意见稿)》。该征求意见稿首先明确国家支持人工智能算法、框架等基础技术的自主创新、推广应用和国际合作,并鼓励优先采用安全可信的软件、工具、计算和数据资源。

同时,征求意见稿规定,提供生成式人工智能服务的机构应要求用户提供真实身份信息,生成的内容应真实准确,并采取措施防止生成虚假信息。
然而,好消息是,技术进步本身可能成为解决技术难题的手段。马克·安德森是一家风险投资公司的联合创始人,也是包括Meta在内多家科技公司的董事会成员。他在最近的一篇文章中写道:“如果你担心人工智能生成虚假的人物和虚假的视频,答案就是构建新的系统,人们可以通过加密签名验证自己和真实内容。
在人工智能之前,数字内容的真实和虚假的创造和修改已经存在;答案不是禁止文字处理器和Photoshop——或者人工智能——而是利用技术构建一个真正解决问题的系统。”他认为,所有的AI技术以及其衍生产品,都将在未来为现存的行业和从业人员的效率以及工作产出带来革命性的增长。相应地,人们需要开发相关的技术来监管和控制,而不是一味地禁止以脱离技术的发展。
如果监管无法及时跟进,那么技术的进步作为打败魔法的魔法,是否能够跟得上信息“变异”的速度?迄今为止,还没有一个一致的答案。今年3月,生命未来研究所(Future of Life)发布了一封名为《暂停大型人工智能研究》的公开信,呼吁所有人工智能实验室立即暂停训练比GPT-4更强大的人工智能系统,至少暂停6个月。

其中一个原因是不要让“机器用宣传和谎言充斥我们的信息渠道”。这封公开信得到了上千名科技大佬和AI专家的支持,包括马斯克、苹果联合创始人史蒂夫·沃兹尼亚克(Steve Wozniak)等人。在此期间,公开信呼吁AI开发者必须与政策制定者合作,加快AI治理系统的发展,包括推出标明来源系统和水印系统,以帮助区分真实信息和合成信息。
待解答的问题不仅限于监管和技术层面,还包括监管与言论自由的边界在哪里?监管是否会危及创新?对于普通用户来说,如何识别AI时代的虚假信息,如何从可靠渠道获取信息以及是否应接受相关教育和培训等问题也需要进一步探索。然而,无论如何,将AI监管置于聚光灯下,是迈向正确方向的重要一步。
欢迎免费使用GPT对话,感受ChatGPT的魅力!AI爱好者 – 最具实力的中文AI交流社区平台 (aiahz.com)
长按扫描二维码进群领资源
