AIGC观察:ChatGPT的治理挑战与对策研究

【编者按】以ChatGPT为代表的智能传播将带来人类信息传播范式的根本转变,同时意味着旧有治理范式的失效和缺失,网络治理进入全新的深水区。《互联网法律评论》特约专家方兴东教授指出,针对AIGC类产品,我们必须从技术和产业自主权、意识形态主导权、国际传播主动权等方面形成综合的战略考量。

方兴东教授作为博客中国(blogchina.com)创始人、总编辑,被誉为“博客教父”,也是中国最具影响力的互联网观察者、评论家之一。

今日,《互联网法律评论》获授权刊载方兴东教授和浙江传媒学院新闻与传播学院助理研究员钟祥铭、浙江大学传媒与国际文化学院博士后顾烨烨合著的一篇文章,供读者参考。

米歇尔·福柯在1966年的《词与物:人文科学考古学》一书的结尾对现代人文主义作出了宣判:“人将被抹去,如同海边沙滩上一张脸的形象。”福柯描绘的情景似乎正在传播领域成为现实。ChatGPT表现出惊人的内容生成能力,极大削弱了人在新的智能传播中的主体性地位——人再也不是信息和内容理所当然的生产者和主导者。因此,ChatGPT带来的治理挑战是前所未有的。

ChatGPT的出现,意味着人工智能技术开始从量变走向质变,即从专用人工智能开始走向通用人工智能,从小众应用进入真正的大众化引爆点。人们在惊艳于ChatGPT的表现、兴奋于技术突破的同时,也为如何驾驭这一现象级的应用而忧心:人工智能快速演进究竟会给人类社会带来怎样的冲击,又会将人类带向何方?

仅从技术和应用角度看,ChatGPT的影响与意义可以与1994年浏览器开启互联网时代的“网景时刻”以及2007年乔布斯开启智能手机的“iPhone时刻”相提并论。但从社会影响和治理挑战角度来说,ChatGPT与后两者不可同日而语。1994年全球网民2023万,2007年全球网民12亿,而今天全球网民已经超过50亿!ChatGPT应用所引爆的威力惊人,上线仅两个月就在全球突破1亿用户,它的影响将是基础性、全局性、社会性和综合性的。ChatGPT为代表的以数据和算法驱动的智能传播,是人类信息传播的一次全新的范式转变,自然也意味着治理范式将面临重大转变。

本质上而言,ChatGPT属于人工智能生成内容(AIGC)的一种。AIGC内容生产中的制度建设与保障,涉及多元主体,涵盖多个领域,不仅关乎国家对产品的管理秩序、精神文化产品的生产繁荣,也关乎投资者、研发者、制造者、使用者等相关主体的切身利益,制度的建设与安排牵一发而动全身。因此,如何把握分寸和节奏,是ChatGPT治理的关键所在。

英国技术哲学家大卫·科林格里奇在《技术的社会控制》(1980)中指出,一项技术如果因为担心不良后果而过早实施控制,那么技术很可能就难以爆发。反之,如果控制过晚,已经成为整个经济和社会结构的一部分,就可能走向失控,再来解决不良问题就会变得昂贵、困难和耗时间,甚至难以或不能改变。这种技术控制的两难困境,就是所谓的科林格里奇困境(Collingridge\’s Dilemma)。ChatGPT的治理问题,就是今天我们迫在眉睫所要解决的科林格里奇困境。ChatGPT的本质是信息,其影响社会的底层基础依然是传播问题。因此,本文从信息传播角度入手,深入考察ChatGPT的治理逻辑和对策建议。

AIGC观察:ChatGPT的治理挑战与对策研究

一、ChatGPT冲击波:网络治理进入深水区

从传播学视角看,ChatGPT带来的社会影响与冲击,本质上是人类信息传播范式的重大转变,进而改变了人的生活方式和整个社会的运行方式。10年前,卡斯特说:“近年来,传播转型中最重要的一类,就是由大众传播到大众自传播的演进。”而今天,智能传播将超越大众自传播(本文称为社交传播),ChatGPT的出现则标志着智能传播正式确立了主流地位。如果说,社交传播撼动了传统大众传播确立的自上而下、集中控制,以媒体机构为中心的大教堂模式,奠定了人类自下而上、去中心化,以网民为主体的大集市传播模式,那么以语言生成模型和语义理解模型为基底的生成式AI,则直接解构了卡斯特最为赞赏社交传播的一点,即以网民为中心的自主建构性,甚至颠覆了过去以公开或者半公开的信息和内容为特点的互联网应用模式,而走向以数据和算法驱动的新模式,成为一种不再向大众公开、也无法通过搜索引擎抓取内容的“暗网式”大集市。这种互联网应用模式将从底层基础开始,给社会各个层面和各个领域带来全新的变革与挑战。

首先,ChatGPT正在以势不可挡的力量影响产业主导权,具体包括资源主导权、技术主导权、资本主导权和市场主导权四个层面。智能时代,数据和算法成为新的权力生产要素,是影响产业主导权转移的重要因素。有研究表明,大数据赋能数字产业高质量发展时存在多条路径,有助于实现数字经济“一业带百业”效应。AI技术是智能化制造的核心驱动力,为增进生产效益和提升市场价值提供了持续动能。ChatGPT是基于数据与算法的AIGC最新应用,属于AI领域的一种技术或算法,具有广泛的应用场景和范围,其横向上可以用于自然语言处理、语音识别、机器翻译、图像识别等场景,纵向上可以应用于健康、金融、教育、媒体、客户服务等多个行业。ChatGPT的出现和应用加强了数据资源、信息获取和人工智能技术在产业主导权方面的地位,为产业的发展与变革带来新的机遇和挑战。

一方面,ChatGPT有助于促进新兴科技产业的发展、推动传统产业的转型,同时将催生一大批新产业、新职业、新业态;另一方面,ChatGPT的发展也将对部分传统产业带来潜在危险,主要集中于传统媒体、客户服务、教育行业等领域,一些普通文字工作者、线上客服、翻译员、初级代码编写员等可能会面临失业的冲击,ChatGPT将重塑智能时代产业格局下的人才需求。

其次,ChatGPT必将带来诸多意识形态治理困境。现阶段,ChatGPT的训练数据主要源于互联网的海量数据,训练形式则是相关技术人员的“投喂”。这个训练过程中,“投喂”数据的质量基本依靠研发公司制定的规则以及具体的AI工程师的把关。换言之,ChatGPT所形塑的“三观”——它们在处理文本中的思想、意识形态偏向,直接受到研发公司的灌输。自我定义为“理性、中立、客观”的ChatGPT,实则充斥着双标悖论与失实报道。尤其在对待中、美问题上有着截然不同的态度,这套程序极力地维护美国利益,甚至秉持美国主流的“政治正确”。这也意味着,乐观地认为ChatGPT“价值中立”的愿望只能是不切实际的幻想。从技术与“空间-权力”的关系视角来看,人工智能作为一种“权力的媒介”,其性质早已超出了技术工具的视角,更是一种“意识形态引领的技术范式,涉及对传播权力的分配”。换言之,数据和算法已经成为一种新的权力生产要素,在AI技术造就的政治与技术互嵌、真假杂糅的媒介景观下,意识形态风险呈现出“隐蔽化、全域化、复杂化和动态化”的特点。这带来了诸多意识形态治理困境,如算法推荐固化导致的意识形态传播“去中心化”、内容生产环节夹带主观偏好、道德指向力失落和法律规制力失效,等等。在此背景下,把握好主流意识形态的话语权建设显得尤为重要,“推动人工智能工具理性和价值理想的双向平衡,构建主体与客体、内容与监管的融合统一”,是新时代意识形态话语权建设的题中应有之义。

再次,ChatGPT在国际传播层面具有变革性意义。放眼当下,在新的国际传播格局中,美国依然占据压倒性优势,而中国在新兴智能传播领域的崛起,是影响未来国际传播格局的关键变量。ChatGPT作为一种新型的自动化智能传播方式,在国际传播范畴内将对语言和文化交流、新闻媒体、政治宣传、个人和商业交流、信息安全等领域产生巨大影响。当算法技术被国家行为体使用时,会成为国家在国际无政府状态下追求权力和利益的国际政治工具,沿着“技术嵌入”和“权力赋能”两条“非中性”路径发挥作用,国际形象建构与国际舆论正在转变为技术之间的博弈。中国在国际舆论场上的作为一直未能尽如人意,有研究认为根源在于国家文化软实力建设的相对滞后,国际传播效能尚待提高。西方资本主义国家涵盖“人权”在内的话语体系自近代以来在全球范围内长期垄断,通过把控话语表征与传播渠道在全世界推行。随着ChatGPT在世界范围的广泛应用,AIGC在国际舆论中的参与比重以及影响力将持续加大,进而深刻影响国际传播格局。

最后,ChatGPT给社会治理带来多方位的冲击。比如,某些恶意行为者可能会通过这些模型自动生成大规模且极具说服力的误导性或虚假内容,从而制造影响力暗中操纵公众舆论。如果不加以适当的控制,可能会将操纵舆论、制造假新闻和仇恨言论带到前所未有的水平。而在教育领域,智能技术的应用已带来了多重冲击。一方面,AI可能会让学生面临“自主性被蒙蔽、能动性被误导、创造性被弱化”的风险;另一方面,AI也引发了教育评价层面的多重风险,“表现为评价制度和数据标准的缺位、技术至上的作祟、评价主体智能素养的孱弱、数据主义的滥觞、隐私安全的披露等。”就业领域受到的冲击则远甚于此:葛鹏等人研究发现,2013年后机器人已对劳动者呈现净替代效应,尤其是对制造业就业呈现逐渐增强的替代趋势。在政策领域,AI技术也会通过减少就业机会和降低工资收入水平两种传导路径引发劳动力迁出决策,尤其是在中低技能、常规性职业、农村户口和非国有企业等领域的劳动力。ChatGPT则进一步加剧了这种情况,不仅是中低技能,高技能高学历者如计算机编程、论文写作等领域也受到了冲击。Nature杂志在一周内连发两篇文章探讨ChatGPT及生成式AI,并指出学术圈使用ChatGPT已不可避免,呼吁尽快明确使用规范。极具讽刺意味的是,美国国会诞生了其历史上第一个由AI撰写的关于“监管AI技术”的决议。

于当下中国而言,ChatGPT对整个社会信息传播带来的变革以及对国际传播的影响,将是颠覆性的,这也标志着网络治理进入全新的深水区。而目前无论是我们的方法和思维,还是我们的基础条件和技术能力,都远不足以从容应对,必须对此予以高度重视。

AIGC观察:ChatGPT的治理挑战与对策研究

二、从技术出发:ChatGPT的治理逻辑和制度框架

当前网络内容生产中,主要存在着专业生产内容(PGC)、用户生成内容(UGC)、职业生产内容(OGC)三种生产机制,它们在发挥各自优势、丰富网络内容的同时,也正经历融合和创新。由专业媒体或机构、专业作者通过专业制作工具生产出高质量、高可信度的原创内容,是PGC最典型的传播机制。与PGC相比,UGC和OGC的信息传播范式有很大的不同,具有开放性、广泛性、互动性、自由性、非专业性等特征。采取UGC、OGC模式进行内容生产的社交媒体、知识共享平台等在信息传播方面表现出强大的生命力和优越性,越来越多的“数字劳工”将智慧和力量贡献其中。当前,我国意识形态工作的开展、内容审查和治理监管等体系的建立,主要是基于PGC模式的传统大众媒体的经验和方法,这种模式的核心逻辑就是自上而下、集中控制、层层把关的基于内容和流程的管理模式。UGC、OGC作为信息传播的后起之秀,相较于PGC内容生产与传播过程的“重重把关”,其本身存在更艰巨的监管难度,尚未形成完善的治理模式和制度。学界普遍认同“他律”与“自律”相结合的治理逻辑,开创了“平台把关、政府监管、用户自律”的治理路径,逐步建立第三方内容监督委员会机制,通过教育宣传提高用户媒介素养。

如今,AIGC以其高效率、智能化、沉浸式体验等优势在诸多领域的内容生产中发挥巨大优势,正在成为未来内容生产最主要的生产力之一。从马丁·海德格尔(Martin Heidegger)对作为人类能力延伸的技术/工具(instrumentum)的现象学分析,到人们设计和使用涉及系统和网络的技术/工具,技术/工具始终被视为我们根据自己的目的随时“待命”的东西。然而,当以数据为核心、由算法驱动的“学习”过程变得隐蔽,当设计师没有能力理解、解释和预测这些事物如何以其独特的人造物视角和能力、以其自身独特方式“参与”由智能技术产生的扩大和分散的任务时,人与对象之间的单向关系——“只有人类才能制造具有明确编码功能的工具,我们所需要的只是进一步研究和迭代,直到我们得到我们所认为的正确的功能、最佳的用户体验、最有效的多利益相关者协作”——正在走向尽头。AI技术将作为串联内容与用户、终端与场景的内在催化剂,对传媒业的信息生产方式、生产关系进行颠覆与重构。AIGC作为AI新的引爆点,又一次带来了传播格局的重塑,“传者中心论”走向衰落。ChatGPT作为全球AIGC发展的最新成果,是大数据应用和算法进步带来的激动人心的应用,然而“不受限制和不受监管”的技术发展令人惊恐。尽管由透明度、公正和公平、非恶意、责任和隐私所构成的AI伦理原则正在全球层面形成趋同,但在如何解释这些原则方面仍存在实质性分歧。技术他者性的逐渐彰显,使得当代技术哲学亦在不断追问人与技术伦理的关系。“如何理解作为他者的技术与人之间的伦理关系成为技术伦理实践首先需要解决的问题。”随着AI日益嵌入社会生活,新的生存与发展理念也亟待树立,如果“真诚接受人机共生的理念”,那么“人们在AI时代对于‘人的自主性’丧失的担忧就可能减轻许多”。因此,对ChatGPT展开凝视,探索相应的治理逻辑和制度框架,是确保实现以技术发展提升人类福祉的终极目的。

ChatGPT的内容生成是通过学习大量的文本语料库实现模型训练,最终生成最优文本,内容生成机制中存在着“数据库”“算法模型”两大关键,成为一切现实性问题衍生的源头,也是影响ChatGPT传播机制治理逻辑的重要因素。ChatGPT的训练数据来自于互联网的大量文本,其中包括各种语言、文化和意识形态内容。互联网既是一个信息宝库,也是一个信息“垃圾场”,鱼龙混杂、包罗万象,以互联网为信息源的AIGC自然会受到不良信息的入侵。过往研究已经表明AI驱动的解决方案和决策在本质上是棘手的社会系统问题,由各类混淆的信息、价值观冲突的利益相关者和决策者,以及重大后果所定义。ChatGPT母公司提出,其应用是一个被训练用于处理文本数据的算法模型,不包含意识形态倾向,不会对任何国家意识形态产生任何影响。然而,算法的设计和操作与我们对其道德含义的理解之间的差距,可能会对个人、群体和整个社会产生严重影响。算法模型背后内嵌着伦理和治理规则。特别是作为美国OpenAI所开发的一款应用,ChatGPT天然内含美国意识形态和美国价值观,无论是语料库本身,还是算法层面,以及用户互动层面等各个环节,都会影响倾向性并主导价值观。GPT-3、DALL-E和AlphaCode等少数模型正在成为几乎所有基于AI系统的基础模型。它们可以被用于创建新的应用程序和商业模型,这些模型可以准确地模仿极端主义内容,并可用于将个人激进主义化为极端主义意识形态。更重要的是,这些模型中的潜在缺陷将被传递给所有后续模型,如果不刻意治理,可能会导致广泛的问题。

基于ChatGPT内容生成机制中存在着的“数据库”“算法模型”两大技术关键,治理路径应该先从技术出发。AIGC的核心是数据,对海量数据的治理是实现“善治”的重要前提,主要包括对数据采集整理、质量控制、标准化和分类、存储和管理等环节的治理,以实现数据的高效、安全、可靠的利用和管理。AIGC的关键是算法,对于算法模型的治理是实现“善治”的关键因素,主要包括对算法的选择、评估、优化、安全和可解释性的治理,以提升算法的科学性、合理性和可靠性。制度建设与行政管理也是AIGC治理的重要手段。技术发展需要制度保驾护航,发展过程需要管理并驾齐驱,已经成为学界的共识。在人工智能研究、开发、应用、推广的各个阶段,要逐步建立起科学、规范、完善的制度框架,主要包括政策制定、法律法规、标准规范、监督机制等,形成完整的制度体系,采取一系列具体的、可操作的管理手段,提高治理的效率和质量,保证AIGC的安全、合法、可持续发展。更重要的是,治理目的要回归人的全面发展。

当前,ChatGPT所引发的问题主要包括隐私泄露、人工智能歧视、虚假新闻与信息扭曲、意识形态渗透、思想陷阱等,对于其所造成的一系列社会风险,亟待建立配套完善的安全治理机制、伦理道德治理机制、意识形态治理机制。安全治理主要应对数据泄露、滥用、误用等问题,通过建立集安全需求分析、风险评估、安全策略和措施为一体的安全治理机制,保证AIGC的可控性和安全性;伦理道德治理涉及隐私保护、公正性、权益保护等问题,通过建立完善的伦理道德治理机制,增强其合法、公正、正义性质,涵盖道德要求的明确、道德问题的识别和解决、道德教育和宣传等,保证AIGC符合社会和公众的道德期望和要求;意识形态治理主要是为了预防西方意识形态与价值观的入侵与渗透,ChatGPT等AI生成内容的新突破,彻底变革了内容生产方式,蕴含着西方意识形态与价值观的内容更多通过隐性的方式传播,使得我国原本的意识形态防范机制失效,为我国带来前所未有的治理难度。建立意识形态治理机制,需从意识形态分析、政策与法规制定、加强监管、素养教育等四个方面着手,通过对AIGC内容生产与传播的深度分析,在“AI-用户”之中嵌入监测与预警机制,有效防范有害意识形态的传播。

AI是运用科学技术解决现实问题的有效工具,是生产力发展向智能化进阶的重要体现。如詹新惠所认为的,技术不是目的,更好的世界、更美好的生活才是目的和目标。如何充分挖掘和发挥生成式AI的价值,使之服务于人类的全面发展,才是人工智能治理的出发点和落脚点。以ChatGPT为代表的AIGC传播机制的治理逻辑应该围绕“技术逻辑出发,回归人类需求”的思路,以数据治理、算法治理为基本,以安全治理、道德伦理治理、意识形态治理为归宿,通过对内容生成与传播的制度治理与过程治理,最终实现AIGC的“善治”。

AIGC观察:ChatGPT的治理挑战与对策研究

三、负责任的AI:ChatGPT治理的欧洲实践和国际经验

作为全球数字治理制度建设的风向标,欧洲正试图在AI治理全球规则的制定上掌握主动权与主导权。随着ChatGPT的爆红,关于AI监管的辩论和争议都指向了目前在欧洲议会受阻的《人工智能法案》。它旨在对高风险AI系统制定严格规则,且明确定位于成为一个全球模式。然而,当前对AI的监管主要集中于传统的AI模型,而非以ChatGPT为代表的大型生成式AI模型。为此,欧盟委员会正试图增加管理此类技术的规则。2023年2月初,欧盟负责内部市场的委员蒂埃里·布雷东日表示,欧盟正在考虑设立规章制度,以规范其使用,确保向用户提供高质量、有价值的信息和数据。

总体上,尽管各国政策制定者正在努力跟上AI技术领域不断加速的动态,但关于通用AI的监管与治理,事实上已经成为一种事后思考。人们对生成式AI这一新兴事物的认知仍然处于循序渐进的过程中。随着诸如隐私泄露、知识产权、非法使用以及国家安全等问题在不同领域的扩散与渗透,创建一个全面的制度框架对其进行规范是一项艰巨而复杂的任务。一方面,生成式AI作为一个快速发展的领域,技术的采用速度远远超过了监管速度,也导致规范难以固化。从技术开发者(包括商业行为者、非商业开源开发者等)、研究人员,到企业(包括平台、供应商等)、用户与政府,一系列问题仍模糊不清。关于如何对ChatGPT实施监管的争论也越来越激烈。大型生成式AI模型开发人员面临的主要挑战是如何实施有效的内容审核机制。然而,强迫ChatGPT的开发人员制定一个全面的风险管理系统,涵盖并降低ChatGPT可能对安全和基本权利造成的所有风险,被认为是低效且不可行的。另一方面,对现有法律法规适用性的审视与批判也成为学者与政策制定者思考的重点。

2022年5月,《人工智能法案》草案第4a―4c条修正案公布,涉及“通用人工智能系统”(GPAIS)。修正案将GPAIS定义为“提供商旨在执行一般适用功能的系统,如图像和语音识别、音频和视频生成、模式检测、问题解答、翻译等;GPAIS可用于多种环境,并可集成在多种其他AI系统中”。如果这些系统可能被用作高风险系统或其组成部分{第4b(1)和4b(2)条},则这些系统应承担高风险义务(第8条至第15条)。然而,高风险规则应如何适应GPAIS却尚未被规定。Philipp Hacker等人发现,GPAIS规则未能公正地处理大型AI模型的特殊性:对GPAIS的定义过于宽泛;对大型生成式AI模型(LGAIM)的风险管理极其困难;GPAIS规则可能会对LGAIM的竞争环境产生重大不利影响,如开源开发者作为提供商以及出于非商业目的的科学研究等的责任判定。

欧盟现有的AI监管格局还包括《人工智能责任指令》(AI Liability Directive)和侧重软件监管的《产品责任指令》(Product Liability Directive)。ChatGPT不受这两项指令的直接监管,但对开发人员提出了确保系统功能和使用符合指令中的透明度、问责制和公平性等原则,确保以负责任和合乎道德的方式开发和使用该系统。如果ChatGPT被使用于如社交媒体等特定平台,《数字服务法案》《数字市场法案》等针对数字平台的法案将对AI系统作出相关约束。此外,根据使用ChatGPT的司法管辖区,应有其适用的数据保护法。《通用数据保护条例》(GDPR)对个人数据的收集、使用和共享制定了严格的规则。当ChatGPT在处理个人数据作为与用户交互的一部分时,它需要遵守GDPR关于个人数据处理的要求。ChatGPT本身还供GDPR约束的企业或组织使用。在这种情况下,ChatGPT需要以符合适用于其用户的GDPR要求的方式进行配置与操作,包括数据保护原则、数据主体权利和发生数据泄露时的通知义务。

以ChatGPT为代表的生成式AI正在成为“可信赖AI”的一个重要新领域。ChatGPT可以为其使用者提供明显的优势,而这些优势可以扩大与更多参与者的接触,产生新的影响力策略,并使公共活动的信息更具针对性和潜在有效性。因此,通过一个坚实的制度框架来确保基于高质量数据的“可信赖AI”至关重要。围绕大型AI模型新兴监管环境的变化,Philipp Hacker等人认为,各主体义务的履行必须根据具体挑战量身定制,合规性必须适用于各种规模的供应商。他们就如何更好地监管大型生成式AI提出了三项具体建议,即透明度义务及其可持续性;具有强制性的有限制的风险管理;扩大内容审核的范围。Calvin Tang提出,针对生成式AI所建立的制度框架必须为数据隐私和安全设定标准,确保透明度和问责制,并提供解决争端的具体方案。通过建立健全法律框架,再加上适当的用户教育,监管机构可以帮助降低生成式AI带来的风险并促进其负责任地使用。增加透明度反馈回路、人类参与人工智能结果评估的重要性以及扩大和标准化通知机制,也被认为是驯服ChatGPT的有效方法。

2022年7月20日,英国政府制定了一项名为“建立一个有利于创新的AI监管框架”的政策文件,尝试以一种明确、友好和灵活的方法来监管AI。重点关注使用AI的具体应用场景,采取相称的、基于风险的应对措施。此外,日本、加拿大、澳大利亚、新西兰、新加坡和中东等国家和地区正在制定各自的框架。欧洲委员会和经合组织等也在就“负责任的AI”提出建议,以期影响成员国法律制定的方向。总体而言,通过伦理框架来指导AI模型的开发和治理,以确保这些模型作出公平和透明的决策已成共识。尽管AI伦理原则和实践之间仍然存在差距,但事前基本权利影响评估的重要性正在凸显,对人工智能价值链进行直接监管,并建立一个全面的风险管理系统成为必要。

除了欧洲在AI制度建设上的努力,中美作为AI开发中最重要的两个参与者,两国发展态势通常被描述为一种“AI竞赛”。2017年,国务院发布《新一代人工智能发展规划》,明确了我国建立AI法律法规、伦理规范和政策体系的决心。2019年和2021年,国家新一代人工智能治理专业委员会相继发布《新一代人工智能治理原则——发展负责任的人工智能》和《新一代人工智能伦理规范》。2022年12月,国家互联网信息办公室、工业和信息化部、公安部联合发布《互联网信息服务深度合成管理规定》,自2023年1月10日起施行,对类ChatGPT的应用服务提供者、技术支持者提出了标注区分等一系列要求。近年来,美国对AI的监管正采取更加积极的态势。特别是自美欧贸易和技术委员会(TTC)成立以来,美国与欧盟的相关监管政策也趋同对标。从旨在保护个人数据和限制监控的《人工智能权利法案》(AI Bill of Rights)到《平台问责制和透明度法案》(Platform Accountability and Transparency Act)的推出,表明未来美欧之间将达成更多共识。如Emmie Hine和Luciano Floridi所呼吁的,各国政府应超越竞争性地缘政治动态的传统概念,采取价值多元主义的立场,承认存在多种治理方法的空间,通过对话,为一个良好的全球人工智能社会勾勒出共享价值观的具体参数,超越美国所建构的普遍“人类价值观”的自私言论。一个良好的全球AI社会,应该由人类之间的和谐合作引领。

AIGC观察:ChatGPT的治理挑战与对策研究

四、跨越鸿沟:ChatGPT的中国战略与治理对策

ChatGPT对国内和全球信息传播的变革,并不是一种简单的新应用、新技术、新方法或者新渠道,而是超越传统大众传播和社交传播的一种全新的智能传播的崛起。它将造成人类整体传播基础设施、传播方式和机制的彻底重构,以及国际传播和全球传播阵地的全局变阵和整体切换。这不但意味着我们过去传播方式和基础能力的迅速边缘化,更意味着我们长期建立的内容审查、多元协同的治理和监管体系,面临全局性的失效,给我们国内意识形态领域以及国际传播领域带来全新的威胁和挑战。因而,必须加以高度重视,在战略层面展开对策研究。

ChatGPT治理的首要问题就是时机。科林格里奇困境告诫我们,技术社会控制的艺术在于时机,如何恰到好处是关键,而时机的把握就在于技术创新活力和技术社会影响的演进过程。对于ChatGPT治理的时机问题,不同的人都有自己的主观认知。比如,作为Open AI共同创始人,特斯拉CEO埃隆·马斯克给予ChatGPT很高评价,但也呼吁各国政府应该给人工智能踩下刹车,以使其处于安全的监管之下。

1991年,杰弗里·摩尔(Geoffrey Moore)在《跨越鸿沟:颠覆性产品营销圣 经》(Crossing the Chasm:Marketing and Selling High-Tech Products to Mainstream Customers)中提出,高科技企业的早期市场和主流市场之间存在着一条巨大的“鸿沟”,能否顺利“跨越鸿沟”并进入主流市场,成功赢得实用主义者的支持,决定了一项高科技产品的成败。“鸿沟”之前的用户主要是创新者和早期采纳者,大约分别占据目标用户的2.5%和13.5%。“鸿沟”之后就是早期大众群体,占用户的34%。如果将全球网民都视为AIGC的目标用户群,那么,“鸿沟”之前的创新者目标约为1亿多网民(实现这一目标,ChatGPT仅用了2个月),而成为主导主流市场的“杀手级应用”还得跨越约7亿多网民的早期采纳者目标。当然,这一用户数量不只是ChatGPT本身的用户,还包括类似整合ChatGPT功能的必应(Bing)搜索引擎等延伸应用。按照目前的节奏,抵达这一目标的时间很可能在一年之内。因此,留给我们研究的窗口期并不长。

针对重大技术变革的有效治理,“鸿沟”也是我们把握治理时机和采取相应举措的重要标志。在“鸿沟”之前,我们主要的任务是需要洞察变革的规律、问题的机理和治理的逻辑,并构建新的制度体系的基础理论和制度框架。而“鸿沟”之后,也就是在技术完成主流化之前,能够通过一定的制度化的治理举措,适当地控制其潜在的不良后果。因此,从这一角度来看,针对ChatGPT的治理不宜操之过急、过早控制,更不能过度控制,以防止伤害新技术的正常发展和社会普及。但也不能放任自流,而需要在理论探讨和治理对策方面未雨绸缪。特别是在ChatGPT这种前所未有的流行和普及速度面前,应掌握主动权,避免仓促地被动应急。

ChatGPT的中国治理对策还是要继续在“先发展,再治理”和“边发展,边管理”两种节奏的组合中灵活把握。我们必须认识到,ChatGPT的威力并不在于作为单一聊天机器人或者搜索引擎新应用,而是数字技术发展到今天,以一种全面升级的科技基础设施,支撑整个科技、产业、社会、经济、文化等不同层面。以ChatGPT为代表的传播能力和技术能力将呈现高度的渗透性和扩展性,将陆续整合到各种应用和各个领域之中。如微软除将ChatGPT整合到必应(Bing)搜索引擎之中,还将整合到Office办公软件“全家桶”之中,更将整合到微软云计算Azure之中,可以为各行各业赋能。因此,过去针对信息、内容和流程的传统网络控制模式将不再有效,作为一种有着广泛应用场景的通用目的技术,ChatGPT类应用的发展是全球性的大趋势,单纯的封堵模式将处于防不胜防的尴尬地位。

由于智能传播消解了过去大众传播和社交传播所具有的内容生产和传播特点,信息和内容进入了数据和算法驱动的“暗网化”的不可见传播模式,因此,将极大突破现有日渐完善的法律法规体系,我们依赖的基础性的网络综合治理体系,也将出现诸多失效和缺位的现象。当然,通过国家法治、行业共治和企业自治等层层推进的治理逻辑依然没有改变。

卡斯特认为,权力是基于对传播和信息的控制。传播权力正是社会结构和社会动力的核心。ChatGPT类智能传播的崛起,是权力的又一次重大转移。这种更加隐蔽的“暗网式”大集市传播模式,既极大消解了社交传播构建的网民自主权,让用户成为更加被动而消解的“受众”。同时,也增加了缺乏足够技术手段与技术能力的政府部门监管和治理的难度和成本。“如果想要在网络社会中实现社会变革,就必须对负责形象操控和信息处理的符号环境进行重新编码。”制衡技术平台单向度的权力失衡,正在成为新的挑战。一方面,政府作为“守门人”的守门人,需要扮演更加积极有为的角色,强化监管的技术能力和运行监督能力。应通过类似欧盟《数字市场法》这样的重大制度创新,形成更加高效的事前监管能力,将责任和义务落实在前。另一方面,要建立架构智能传播时代权力再平衡的制度体系。除了强化平台主体责任,还必须通过算法透明、接口开放、数据共享等为用户赋权。1996年美国《通信规范法》第230条是平台责任的核心法规,旨在保护平台免于因参与内容审核而承担法律责任。而如今,这个奠定平台内容主体责任的基石,很可能随着生成式AI兴起而崩塌。

同时,智能传播驱动的不公正和不平等也将更加隐性化,由此形成的智能鸿沟,将逐渐超越早期的接入鸿沟和素养鸿沟,成为社会治理的新问题。AI造成了财富和收入不平等的巨大鸿沟。麻省理工学院经济学家达伦·阿西莫格鲁(Daron Acemoglu)证实了在1980―2016年中,自动化技术一直是美国收入不平等的主要驱动因素。而这主要发生在AI技术使用激增之前。除了当下人们对AI造成的大规模失业的担忧,智能传播带来的社会更深层的智能鸿沟迄今缺乏系统的、足够的研究和关注。Everett Rogers早已告诫我们,一项创新可能带来巨大的好处,但它可能同时导致无意的负面影响——尤其是当创新创造了一种不平衡的条件时。当出现不平衡时,创新的进步速度就会超过社会、研究和政策,降低人们识别或评估任何不利影响的能力。

因此,必须跳出固有思维,在新的战略高度全面部署发展和治理问题。ChatGPT引发的这一轮技术变革,除了极大改写全球信息传播格局,还将重构整个全球科技竞争版图以及大国竞争与博弈的新态势。不发展是最大的不安全,落后是最无力的治理。技术创新是应对这场危机和挑战的根本方式。在广泛使用的创新措施方面,中国仍落后于其他研究领先的国家。在世界知识产权组织的全球创新指数(GII)中,中国仍未进入前10名,落后于韩国和新加坡等亚洲国家。我们无法用陈旧的方法和技术抗拒这场竞争,而必须在市场和产业层面赢得竞争的主导权。AI发展的三大要素是数据、算法、算力,中国在这三方面都有良好基础。而且中国已经在AI层面积累了一定的技术能力和人才储备,但必须克服各自为战的碎片化陷阱,摆脱注重短期激励驱动的追赶模式,充分发挥我们的制度优势,通过创新机制,形成以具有长期主义价值观的华为等为龙头的中国产业生态力量,并在中国市场乃至全球市场,与美国科技公司展开正面竞争,这是我们赢得主动权和主导权的关键所在。此次ChatGPT的爆红,让谷歌、Facebook、百度等大公司面临极大冲击,说明真正颠覆性创新还是需要依靠新兴的创业公司。当然,大公司在普及方面仍拥有一定优势。因此,需要采取双管齐下、优势互补的路径。既强力支持新兴的中国创业公司,又大力激发大型企业参与这场竞争,应该成为我们政策和战略的基本主线。

我们也必须避免简单封堵的消极治理。ChatGPT刚刚崛起,其技术功能、产品形态、产业生态和传播潜能的走向都还处于初期,都在快速演进和发展之中。塑造一个良好的AI创业和创新的环境与生态,至关重要。前期依然需要秉承审慎包容的管理思维与逻辑,以问题为导向,有针对性地推进治理和监管举措。目前ChatGPT主要用于机器人聊天和搜索引擎整合,主要面向个人消费者,局限于个人与ChatGPT之间的交互,应用本身并不具备更大的公共传播力。因此,当下可以先采取审慎包容的态度,仅对少数在社会层面产生严重负面传播影响的内容采取措施,避免简单一刀切。

最后,与时俱进,逐步建立针对性的新型多元治理体系。深入研究,遵循变革趋势,把握生成式AI(AIGC)的技术特性和传播规律,针对性建立相应的多元体系。只是传统管理方式不但效果有限,而且极大制约自身发展,更可能适得其反。除了健全现有的治理体系,技术问题的治理必须立足于有效的技术手段和技术工具之上。应建立由相关领域专家参与的AI训练过程,开发可信赖的增强学习算法。同时,强化平台主体责任,在企业技术研发中形成兼顾发展和治理的工作机制。

总之,面对ChatGPT热潮,我们必须从技术和产业自主权、意识形态主导权、国际传播主动权等方面形成综合的战略考量。ChatGPT代表的是全球科技行业的发展趋势,并不是单一的应用,大量类ChatGPT以及更多新产品和新技术将如雨后春笋般迅速蔓延。错失这场技术趋势的代价将会非常高昂,我们必须投入这场数字时代最关键的竞争。

(本文原载于《传媒观察杂志》2023年2月号,原标题为《ChatGPT的治理挑战与对策研究——智能传播的“科林格里奇困境”与突破路径》,注释从略。学术引用请参考原文。)

作者:方兴东   《互联网法律评论》特约专家,浙江大学传媒与国际文化学院教授、博士生导师

钟祥铭    浙江传媒学院新闻与传播学院助理研究员

顾烨烨    浙江大学传媒与国际文化学院博士后

本文地址:https://www.qasks.com/archives/5445

以上内容源自互联网,由百科助手整理汇总,其目的在于收集传播生活技巧,行业技能,本网站不对其真实性、可靠性承担任何法律责任,如有侵权请联系删除。特此声明!

题图来自Unsplash,基于CC0协议