过滤时代的美国互联网管制
左亦鲁
tion案[7],最高法院以6比3支持了CIPA的合宪性。CIPA的转变在于国会不再直接对言论进行管制,它只要求接受《1996年电信法》中的“电子分级(E-Rate)”计划和《图书馆服务与技术法案》(Library Services and Technology Act,以下简称LSTA)的学校和图书馆必须具有因特网安全政策(Internet Safety Policy)和技术保护措施(Technology Protection Measure),每一台接入因特网的电脑必须具有相应的过滤软件可以屏蔽“属于淫秽或儿童色情的图像,并且防止未成年人获取对其有害的材料。” 尽管类似ACLU、ALA等组织仍旧对CIPA频频发起挑战,但CIPA所采用的过滤软件这一进路在某种程度上恰恰最高法院在否决COPA时“推荐”的。因此,在CIPA获得了最高法院支持之后,过滤软件的地位一时难以撼动。
至此,从CDA历经COPA到CIPA,过滤软件作为在因特网上保护未成年人手段的合宪性和有效性便奠定下来了。
如何过滤:以V-Chip和PICS为例
在确立了过滤的正当性之后,剩下的问题就是采用何种过滤。我们应该清楚,广义上的过滤可以出现在传播链条纵向上的任何一个层面——用户、网络接入公司和网络服务提供商等。[8]但接下来我们将要讨论的过滤将限于安装在用户终端的过滤软件,因为这正是COPA案中最高法院所指明的方式,同时也是CIPA以及今天市场上绝大多数过滤软件所采用的方式。
简单来说,每种安装在用户终端的过滤软件都可以分为两部分:对内容进行标记或分级和根据标记和分级进行过滤。二者相比,前者显然更为重要,过滤真正的关键和“猫腻”都集中在这里。而后者基本就是一个纯粹的技术过程而已。
接下来笔者将选择在美国国内十分普遍的两款过滤软件(机制)进行介绍,一种是V-Chip,另一种是PICS。 V-Chip和PICS当然不是完美的过滤,它们都存在各自的问题。但是在众多过滤软件和机制当中,二者的确经历了时间的考验并得到了相当程度的普及。广泛存在的东西必有其合理之处,要思考和讨论接近理想或完美的过滤必定要从现实中借鉴和学习。
V-Chip
之所以在讨论互联网过滤软件的本文中花一些篇幅介绍安装于电视上的V-Chip,是出于这么两个原因:
首先是V-Chip其投入使用远早于同类互联网软件。如前所述,与V-Chip同为96年电信法一部分的还有CDA。非常有意思的是,国会在管制互联网这一新事物时却选择非常传统和生硬的手段,但在管制广播电视这一传统媒体时却采取了V-Chip这种颇具新意而且灵活的方法。这种区别导致了CDA在通过之后就变成了过街老鼠,仅仅存活了不到一年就被最高法院推翻,而国会几经挫折才吸取了教训,终于在2000年的CIPA中学习了V-Chip这种通过过滤间接管制的手段,美国因特网管制开始进入了过滤时代。
其次,尽管V-Chip也一直伴随着不少争议,但作为一次影响范围如此之广、力度如此之大的管制行为却绝对算得上成功。其中诸多环节颇值得互联网同类软件借鉴学习。
根据联邦通讯委员会(FCC)的定义,V-Chip是一种安装在电视机上的芯片,它可以屏蔽那些父母不希望自己孩子观看的节目。根据美国《1996年电信法》(Telecommunications Act of 1996 ),所有于2000年1月1日之后生产的大于13寸的电视都必须安装V-Chip。时任总统的克林顿在签署法案后表示:“我们将遥控器还给了家长,这样他们可以传授自己的价值观和保护自己的孩子。” 至于V-Chip中的“V”为何意,有人认为“暴力(violence)”,也有人认为是“观众控制(viewer control)”。
V-Chip是安装在电视机内的芯片,但又不仅仅是芯片。V-Chip除了需要将集成板安装在电视机上,还需要辅以广播电视台的一种电视分级系统。每种节目中都含有一种信号,这种信号激活V-Chip并告诉电视机正在传送某种等级的节目,如果电视机被设定为拒绝接收该节目,这种节目就会被屏蔽掉。[9]简言之,V-Chip需要硬件与分级系统结合才能发挥作用。
前面说过过滤最关键的其实是分级标记。根据电信法第551条,广播行业被赋予了一次自行制定分级标准的机会,联邦通讯委员会负责监督执行,如果行业的自行分级标准无法令FCC满意,那么FCC有权另行指派人选组成委员会重新制定。身后站着手持尚方宝剑的FCC,包括国家广播者协会(National Association of Broadcasters)、国家有线电视协会(National Cable Television Association)和美国电影协会(Motion Picture Association of America)的行业巨头们很快就拿出了一份分级标准,这就是“电视家长指导(TV Parental Guidelines )”。[10]节目开始后15秒内,分级标签将出现在屏幕下方,同样的信息也会出现在电视报和节目单上。而且V-Chip还要求除了新闻、体育以及收费有线电视节目外,大多数节目必须根据分级标准标记。这一系统存在两套分级办法,第一种是以年龄为基础,目的在于通知观众特定节目是否适合特定年龄段儿童:
TV-Y
适合所有儿童
TV-Y7
适合7岁以上儿童
TV-G
适合所有人;极少或没有暴力;没有脏话;极少或没有关于性的对话
TV-PG
父母指导下收看;可能含有许多父母认为不适合年幼孩子收看的内容
TV-14
父母非常注意;可能含有许多父母认为不适宜14岁以下儿童收看的内容
TV-M
仅限成人收看;成人节目,可能不适宜17岁以下儿童
第二种套等级告诉观众按年龄分级的原因,描述性字幕试图概括节目的内容:
V
暴力
S
性
L
脏话
D
暗示性对话
FV
虚拟暴力
电视在当今人们生活中的地位和影响不必多言,美国政府此番力推V-Chip所显示的决心和魄力同样非同小可。在《1996年电信法》出台之前,美国对电信和媒体领域的管治一直延续《1934年电信法》确立的框架。该法62年来首次大修,V-Chip能被加入法案并获得通过,是因为它保护未成年人的目的回应社会上绝大多数家长和老师的呼声。通常而言,民主党和自由派更偏爱广泛的言论自由,而共和党和保守派则更看重传统家庭价值,对淫秽、色情乃至低俗内容比较反感。但包含有V-Chip和CDA的《1996年电信法》却能在国会很快获得通过,而民主党副总统戈尔不仅自己上阵亲自为V-Chip做宣传,总统克林顿也在法案通过后马上签字,并且克林顿和戈尔连任竞选时也把V-Chip作为主要政绩大肆宣传。由此可见,尽管一些学者、媒体以及ACLU这样的民权组织对V-Chip大肆批评,但保护未成年人免受不良信息影响的确超越了党派和意识形态,得到广大普通民众支持。
PICS
PICS就是因特网内容选择平台(Platform for Internet Content Selection),是目前网上普遍使用的一种分级过滤软件,大家只要进入Internet Explorer的“属性”中“内容”一栏,就可以在“内容审查”那里见到PICS。PICS是由W3C(World Wide Web Consortium)设计出的一种软件标准(software specification),根据这一标准可以对因特网上的内容进行标记(label)。[11]PICS背后的理念是创立一种关于元数据(metadata)的标准,一种关于信息的信息。比如网页中存在一幅图片,那么元数据则会报告网页中含有某一类型的图片这一信息。而W3C在PICS的首页上就十分清楚地表示,发明PICS的初衷就是为了帮助家长和老师控制未成年人对网络的接触。
严格来说,PICS本身并不是一种分级过滤软件,或者说PICS仅仅是分级过滤软件的一部分。PICS是一种软件标准,一种对网上内容进行标记的标准。PICS只是为标记、分级提供一个平台。如果网站所有者想根据PICS自我标记,那么只需要将一段特殊的命令插入网站的HTML代码,那么浏览器接收到这一信息后就会根据其中包含的分级信息进行识别和过滤。但是HTML代码所包含的分级和标记信息却并不是PICS所决定的,因此,PICS必须与某种内容分级系统相结合才能发挥作用。
目前有很多种基于PICS平台建立的分级系统和标准,其中最为普遍的是ICRA(Internet Content Rating Association,以下简称ICRA)创立的分级系统。ICRA的前身就是大名鼎鼎的RSACi(Recreational Software Advisory Council on the Internet,以下简称RSACi),RSACi后来被并入ICRA,而ICRA是家庭在线安全研究会(Family Online Safety Institute)的一部分。[12]而在PICS的网站上,除了ICRA之外,还有Safe For Kids、SafeSurf、Adequate.com、Vancouver Web Pages和Italian Self-rating Service等五种系统可供选择。[13]
下面我们就以ICRA为例来看看是如何对内容进行分级的。ICRA在网站上反复强调他们并不对内容进行任何分级,是内容提供者自己进行分级,ICRA只不过为他们自行分级提供了某种标准和参照。也就是说,PICS为因特网对内容进行标记和分级设立了一个技术标准,然后ICRA在PICS的平台上设计了一套分级标准。但这种分级标准并不针对任何具体的内容或内容发布者,ICRA只不过把标准放在那里,让内容提供者根据标准自行“对号入座”。
内容提供者如何自行分级呢?ICRA的关键是它的词库,也就是著名的“ICRA问卷(ICRA questionnaire)”。内容提供者自行登录到这个ICRA问卷,然后回答一系列问题,这些问题基本都是关于你的网站是否含有ICRA词库中的一些元素(关键词)。在回答完问卷之后,ICRA将根据你的回答出具一份针对内容的分级报告,内容提供者就可以将这一分级信息输入网站的HTML代码中。之后,安装有过滤软件的浏览器在接入你的网站前就会首先读取这一分级信息,然后选择过滤或者进入。
在RASCi时期,这个词库里分有四大类内容,分别是性(Sex)、裸体(Nudity)、语言(Language)和暴力(Violence)。而对每一具体种类,RASCi又会根据从无到极强进行一个程度的排列。ICRA基本没有改变这一模式,它所做的不过是不断更新、调整这一词库和分类。现在ICRA的网站上,词库中共有七类内容,分别是裸体(Nudity)、与性有关的材料(Sexual material)、暴力(Violence)、语言(Language)、潜在有害行为(Potentially harmfully activities)、用户生成内容(User generated content)和语境(context)。[14]其中新出现的三类内容中,潜在有害行为是指出现吸烟、喝酒、赌博、使用武器等行为,用户生成内容这一种类的出现显然是对YouTube等网站兴起的回应,而语境则是告诉用户某些词汇的出现根据上下文可能是在教育、医学、新闻等语境下出现的,比如“乳房”一词可能是出现在色情和淫秽内容中,也有可能根据上下文分析得出是出现在有关医学讨论之中。
其实PICS除了和ICRA这种分级系统合作外,还有另外一种方式,就是和某些第三方分级机构合作,这些机构的分级和标记有的是通过人工,有的是通过电脑分析,比如CyberPatrol's CyberNOT list就是通过人工,而EvaluWeb就是由电脑分析完成。但这种第三方分级组织源自电影分级制度,但互联网上第三方分级面临最大的问题是有太多网站需要他们去进行分级和标记,这几乎是不可能完成的任务。除此之外,第三方机构的中立、客观性也存在不少争论。种种原因导致ICRA所采用的自行分级机制占了上风。
过滤:最好的方式?
之前说过,过滤软件最为关键的就是分级和标记这一部分,而通过对V-Chip和PICS的分析,会发现它们的成功也正在于这一部分。而这种成功之处简单来说就是让内容提供者自行分级(self-rate)。而FCC在V-Chip所采取的方式更值得借鉴。FCC并不亲自动手直接进行分级,而是要求业界自行分级,FCC在背后实行强有力的监督。这样做得好处之一是业界显然对于具体业务和技术更加熟悉。FCC这种“统而不治”的方式相当高明,既可以避免因为制定标准不合适而在业界和民众那里“里外不是人”,又有尚方宝剑保证业界能够贯彻自己的意图。
那么从现实出发,我们会发现如果要设计出某种比较理想的过滤软件,对内容的分级和标记部分也是最为关键的,未来的方向应该就是以自我分级标记为基础,设计出一种更加合理、可行的分级标记系统。在这里,耶鲁大学法学院教授Jack Balkin对过滤的研究颇值得我们关注。Balkin教授对过滤的研究是和他对信息社会(Information Society)的思考是有关的。他认为在面对海量的信息时,过滤必不可少,对信息的过滤而不是信息本身才是最关键的,谁控制了过滤就控制了一切。因此他发出了信息时代“过滤为王”的呼声。[15]
而在Balkin教授为他所参与的耶鲁大学“信息社会项目(Information Society Project)”撰写的报告中更是直接将题目取名为《过滤因特网:一种最好的方式》。[16]不过Balkin教授对包括V-Chip和PICS在内的过滤的态度并不只是推崇那么简单,他对过滤的推崇有些接近“两害相比取其轻者”的态度,对过滤的认可是建立在与传统管制言论方式对比的基础之上的。Balkin教授认为之所以要大力推广过滤,是因为有了过滤软件之后,政府就没有什么理由再去采用传统手段限制言论,即政府不能再通过直接立法去限制言论了,政府只能通过间接手段规制过滤,从而影响言论。从直接变为间接,过滤起码为言论自由多设置了一道屏障。进入过滤时代,类似CIPA那样的斗争和博弈将取代CDA,对于过滤这张王牌的争夺和控制将成为重中之重。在信息时代,是类似过滤软件这样的技术而不是法官创造的判例主导了言论自由的发展。[17]
但是,过滤可能是看起来是出于“选择”而非“审查”,似乎对言论自由限制更少,但通过过滤其自身的隐蔽性和技术性,其对言论的潜在威胁反而有可能更大。毕竟传统方式虽然“简单粗暴”,但毕竟是以公开的方式进行,而通过过滤,言论自由完全有可能在你毫不知情的情况下就被剥夺了。[18]因此,Balkin对过滤推崇的另一面则是高度警惕和关注。正是在这一背景下,Balkin教授提出了他认为理想的过滤软件应该具有的八个特性:
1、 用户的自主权(End-user autonomy)。一是尊重个人用户的自主选择,相信家长自己孩子利益的最好判断者,也就是克林顿总统在通过V-Chip所说的将遥控器还给了家长。二是过滤软件安装在个人电脑,保证言论自由不会在上游悄无声息地被剥夺。
2、 保护内容提供者的表达和思想自由。
3、 意识形态的多元性和弹性。
4、 自我增长的能力(Capacity for organic growth),即新老版本的过滤软件和设施之间彼此兼容。
5、 透明(Transparency)。简单来说就是要求访问被拒绝时,用户必须知道被屏蔽并且知道为什么被屏蔽。这就要求当我们使用IE浏览某些网页被拒绝时,不能仅仅看到一句“Internet Explorer 无法显示该页面”,而应该注明类似“该访问被拒绝是因为包含了高于ICRA暴力2级的内容”。
6、 开放源代码。这就要求像CyberPatrol's CyberNOT list这样采取“黑名单(Blacklist)”方式的过滤软件公开其列表数据,但Balkin承认因为大多数公司往往将这些数据视作商业保密,因此要求其公开有相当难度。
7、 隐私。
8、 不同分级系统之间的兼容性。
而综合以上特性,Balkin教授在他的报告最后设计出了一种三层过滤软件,换一个更形象的说法就是一个放在盘子上的三层蛋糕。Balkin所谓三层蛋糕模型如下图所示:
第三层:黑名单、白名单以及其他第三方分级——第三方额外分级(Additional third party ratings)
第一层:内容提供者自我分级的词库
(Basic vocabulary elements)
盘子:软件规范(Software specification)
第二层:第三方提供的分级模板
(Rating templates)
这个盘子就是像PICS、PICSRules、RDF这样的软件规范,而第一层蛋糕就是像ICRA那样可供内容提供者选择的一个词库,但是与ICRA不同的是,这一层词库并不对内容进行0-4的评分,而只是需要内容提供者列出所有的词汇元素。
第二层是一组分级模板(ratings templates),第二层这些模板将由第三方组织开发。原来由ICRA进行的打分工作将交给这些第三方组织完成,而每个组织可以根据第一层的词库选择不同的评分标准,比如某些组织可以将仇恨言论(hate speech)和“F开头的单词”都评为3,也可以认为前者高于后者或相反。第二层评分受限于第一层中当事人自己选择的词汇,这种模板的意义在对内容提供者的尊重和第三方的价值判断之间取得一个平衡,它的多元性和对用户个人选择的尊重胜于ICRA这种单一模式。而第三方组织也不用去对海量网站进行评级,它们只需要对第一层中的词库进行评价即可,工作量大为减少。
第三层蛋糕将是一系列第三方组织对具体网站的分级。现存的黑名单(Blacklist)就可以纳入第三层,某些第三方开发的与PICS兼容的分级系统也可以纳入第三层,这种分级系统不同于第二层的模板,因为第三方需要自己设定种类和词汇,如创建“种族主义”这一种类。还有一种被称为补救名单(redemptive lists)也应该被纳入第三层,补救名单其实就是一种“白名单(White list)”,即某些网站即便被归入了裸体、与性有关的材料等种类,也可以根据语境判断出其具有美学、科学和教育等价值,从而免受屏蔽。
上述三层蛋糕式的过滤模式当然只是Balkin的一家之言,对于什么是最好的过滤方式必定存在着许多不同意见。但无论是莱斯格“代码就是法律”的论断,还是Balkin所说“过滤为王”,过滤软件因其较易在言论自由和保护未成年人之间取得一个相对平衡,从而成为了目前来看即便不是最好也是最不坏的一种管制方式。互联网管制“过滤时代”的到来似乎已不可避免,但如何去设计和规制过滤软件这一“王器”仍旧任重道远。
--------------------------------------------------------------------------------
[1] 左亦鲁,《美国在互联网领域对未成年人的保护——从〈1996年传播风化法〉到〈儿童因特网保护法〉》,载《互联网法律通讯》第5卷第1期。
[2] 539 U. S. 194(2003)
[3] 521 U. S. 844(1997)
[4] 【美】劳伦斯·莱斯格,《代码》,213页,2004年,中信出版社。
[5] 124 S. Ct . 2783(2004)
[6] http://www.copacommission.org/report/
[7] 539 U. S. 194(2003)
[8] 【美】劳伦斯·莱斯格,《代码》,217页,2004年,中信出版社。
[9] http://www.fcc.gov/cgb/consumerfacts/vchip.html
[10] http://www.fcc.gov/vchip/#guidelines
[11] http://www.w3.org/PICS/
[12] http://www.icra.org/sitelabel/
[13] http://www.w3.org/PICS/raters.htm#self
[14] http://www.icra.org/vocabulary/
[15] Balkin, Media Filters, the V-Chip, and the Foundations of Broadcast Regulation, Duke Law Journal, Vol. 45, No. 6, 1999.
[16] Filtering the Internet: A Best Practices Model, 1999, by members of the Information Society Project at Yale Law School, http://www.yale.edu/lawweb/jbalkin/articles/Filters0208.rtf.
[17] Balkin, The Future of Free Expression in a Digital Age, Pepperdine Law Review, Vol. 36, 2008.
[18] 【美】劳伦斯·莱斯格,《代码》,218-222页,2004年,中信出版社。