高中女生被造网络黄谣,平台未及时处理被判赔8000元

高中女生被造网络黄谣,平台未及时处理被判赔8000元

hyde0321 2025-05-26 装修心得 1 次浏览 0个评论

【编者按】

未成年人是祖国的未来、民族的希望。人民法院高度重视对未成年人权益的司法保护工作,持续深化涉未成年人刑事、民事、行政案件综合审判改革,以最大限度消除影响未成年人身心健康的不利因素。

在“六一”国际儿童节来临之际,法治日报记者聚焦未成年人综合司法保护典型案例,奔赴办案一线调查采访,通过回顾案件办理,展现人民法院充分发挥审判职能作用,促推“六大保护”融合发力,促进未成年人健康成长的生动实践。

从今天起,法治经纬版在“好案例·法镜明”专栏中推出涉未成年人权益保护系列报道,敬请关注。

高中女生被同学造黄谣,造谣者因真诚悔过未被追责,而前期未主动拦截、收到投诉后又未及时下架侵权内容的网络平台被法院判处赔偿精神损害抚慰金8000元。

这一判决并非“有违常理”,而是基于法律对未成年人权益的特殊保护——根据未成年人保护法及相关司法解释,平台对涉及性谣言、隐私泄露等明显侵害未成年人的信息负有主动审查和快速处置义务,若未能及时采取必要措施,则需承担连带责任。

北京互联网法院在判决中明确指出,涉案视频包含未成年人清晰面部特征及露骨低俗内容,平台本可通过技术手段识别并主动拦截,却仅在次日接到投诉后删除,放任侵权信息传播3.5万次。

此案不仅赢得业内专家学者的广泛好评,还作为维护未成年人权益典型案例入选人民法院案例库。近日,《法治日报》记者走进北京互联网法院,深入了解这一判决背后的法律逻辑和对未成年人利益保护最大化的深刻考量。

女生被造黄谣网络传播

对高中生李小花(化名)来说,那天永远是个噩梦。

“小花,你快看我给你发的链接,你的照片怎么被人发网上了。”那天正值假期,在家休息的李小花收到同学的信息后,赶忙点开链接,里面是一段视频——视频里有5张图片,其中一张是其微信个人信息页面截图,包括她的姓名、所在地区等,还有一张是她的正面面部近照,并配有“我嘴上长了小××”“快加我微信让你×”等黄谣内容,以及可能被误以为是“招嫖”的极端下流、低俗的文字。

李小花顿时蒙了,死死握着手机,既惊恐又愤怒。她实在无法面对这一切,担心同学和老师看到这条视频后会怎么议论她,更不知道第二天去学校如何面对老师和同学。她蜷缩在床头,身体因害怕和恐慌而颤抖,泪水滚下脸颊。

缓过劲后,李小花将这件事告诉了母亲。母亲赶紧将其父亲从单位叫回家,夫妻二人报了警。在此期间,不断有人申请添加李小花为好友,申请栏不乏污言秽语。

李小花父亲告诉记者,这件事对孩子的影响很大,她很长一段时间都未触碰手机及相关电子产品,也不愿意出门,基本和外界断绝了交流。父母每天轮流给孩子做思想工作,持续半年之久,孩子的情况才有所好转。

经警方调查,始作俑者很快被找到——李小花的同班同学小丽。原来,因校园纠纷,为了报复李小花,小丽通过小涛在某App制作并上传一段带有李小花校服照的黄谣视频,为泄愤将该视频转发至朋友圈。虽然小丽很快将朋友圈中的视频删除,但已经有不少好友看到了视频内容,且某App中的原视频未删除。

高中女生被造网络黄谣,平台未及时处理被判赔8000元

意识到自己犯了大错,小丽和父母一起向李小花及其家人郑重道歉并请求原谅。考虑到小丽真诚认错,又是未成年人,以后还要继续在一个班上学,李小花及其家人决定不再追究小丽、小涛的责任。

而让李小花父亲不满的是,上传黄谣视频的某App平台,在他们投诉后未及时处理,直到第二天才下架该视频。其间,该视频浏览量飙升至3.5万。“作为传播视频的网络平台,如果他们能在视频上线之前加强审核或接到投诉后立即下架,也许这场悲剧就不会发生。”

于是,他们一纸诉状将平台所属的某科技公司告上法庭。

平台辩称已尽删除义务

北京互联网法院集中管辖北京市辖区内特定类型的涉网案件。李小花的视频在App上制作并发布,被侵权人李小花是未成年人,法院遂将案件交由综合审判三庭(少年法庭)进行专门审理。

“我们的App只是为用户提供图片、视频制作功能。用户小涛制作并发布了视频,李小花与小涛、小丽的纠纷已经公安机关处理,达成和解。我们建立了接受通知的机制,在App中,每一个作品的左下方均有按钮,该按钮可以选择举报,我们有专人处理举报,在接到举报后已经删除了涉案视频,并且屏蔽了相关用户。平台已经尽到了通知删除义务,不应该承担任何责任。”该科技公司辩称。

“根据以往裁判情况来看,平台作为网络服务提供者,如果尽到了‘通知—删除’义务,大多被认定为不承担责任。”负责审理此案的北京互联网法院少年法庭庭长颜君告诉记者,这也是这起案件审理过程中最大的难点。

经过调查,颜君陷入沉思——现有法律规定,网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任。目前案件多以受害人向平台投诉来判断平台是否“知道”,但是对于受害者来说,“通知”后“删除”往往已经造成了难以挽回的损失。除了事后的通知删除,法律针对未成年人进行了特别的保护,还规定了平台应健全预警预防、识别监测和处置机制等措施,如何才能让这些“沉睡”的法律“被唤醒”呢?

“只有给予受害者靠前一步的保护,才能真正让网络暴力销声匿迹。”颜君认为。

平台应尽更高注意义务

为了破局,颜君一次又一次打开卷宗,仔细研究案情,寻找突破口。

《最高人民法院关于审理利用信息网络侵害人身权益民事纠纷案件适用法律若干问题的规定》(2020年修正)第六条对网络服务提供者“知道或者应当知道”网络用户利用其网络服务实施侵权行为作出指引性规定,归纳了网络服务提供者“知道或者应当知道”的情形。

“本案特殊之处在于该网络信息为严重侵害未成年人权益的违法信息,需要将未成年人保护法和未成年人保护条例的相关规定归入上述司法解释规定的情形中进行考量。”颜君说。

在这起案件中,涉案视频中的未成年人特征明显。“视频中李小花的面部近照非常清晰,从面貌特征上可以推知,信息主体是未成年人的可能性是较高的。”颜君说,通过和合议庭成员一起反复查看证据,讨论案情,大家一致认为,“涉案的信息不仅可能引发人肉搜索和侵扰私人生活安宁、侵犯隐私的风险,还明显是涉黄谣言,严重侵害了女性未成年人名誉权。而且这样的侵权内容是显而易见、易于判断的。”

此外,涉案视频的浏览量大、影响范围广。视频从发布到删除,一天时间就产生了3.5万次的浏览量,在非公众人物、非热点事件,且涉案App并非大众通常所用的社交应用软件的情况下,引发了相对较高的网络关注和社会影响。

“某科技公司对网络用户上传的信息进行了一定的处理,也对用户上传的信息具有一定的认知,有义务在相应的环节采取相应的预防侵权措施。并且在这种浏览量短时间飙升的情形下,应该更容易触发技术监测和响应或人工审查,进而提升平台知晓涉案信息的可能性。”颜君说,然而,经过反复询问被告,被告既未建立针对未成年人网络欺凌信息的预警预防和主动监测机制,涉案违法信息经案外人举报后才被删除,也拿不出任何进行过平台审查的有力证据。

最终,合议庭秉持未成年人利益最大化原则,认定平台对涉及隐私、涉黄谣言等严重侵害未成年人权益的违法信息审查,应尽到更高的注意义务。涉案平台符合法律规定的网络服务提供者“知道”的情形,在知道或应知相关侵权行为的情况下,经案外人举报才于次日删除视频,属于未及时有效采取必要措施,平台应承担侵权连带责任。

2024年6月,北京互联网法院作出一审判决:涉案平台赔偿李小花精神损害抚慰金8000元和律师费。一审宣判后,当事人均未上诉。

“孩子现在已经上大学了,学的是师范类专业。这件事虽然影响并困扰了孩子很长时间,但她仍然希望从事教育工作,渴望当一名教书育人的好老师,让她的学生远离校园霸凌,有一片更蓝的蓝天。”采访结束时,李小花父亲对记者如是说。

判词摘录

本案涉案视频中有清晰的李某面部近照,从面貌特征上可推知信息主体系未成年人的可能性较高,视频使用了极端恶俗、下流的语言针对女性未成年人进行人格侮辱和人身攻击,还披露了李某姓名、微信号等个人信息,不仅可能引发人肉搜索和侵扰私人生活安宁、侵犯隐私的风险,还严重侵害女性未成年人名誉权。涉案侵权内容违法性显而易见、易于识别判断,视频在短时间内即引发了较高的网络关注,同时,被告未能证明其采取了关键词筛查、人工审查等合理措施。因此,本案符合法律规定的网络服务提供者应当知道网络用户侵权的情形,在网络服务提供者未采取必要措施的情况下,应当与网络用户承担连带责任。

阻止涉未黄谣传播,网络平台须担起责任

张鸿巍

根据我国现行法律法规,网络平台在民事侵权领域通常须承担直接侵权责任或间接侵权责任,后者主要涉及网络平台对网络用户利用其网络服务所实施侵权行为而未采取必要措施所应承担的相应民事责任。

对于此类间接侵权责任,民法典第1194至1197条采用“通知—删除”规则要求网络平台承担责任,即权利人在向网络平台举报、发出侵权通知后,网络平台应及时删除、屏蔽、断开链接。适用上述法条时,难点之一即在于对第1197条“网络服务提供者知道或者应当知道网络用户利用其网络服务侵害他人民事权益,未采取必要措施的,与该网络用户承担连带责任”中“知道或者应当知道”内涵之厘定,以确定网络平台与用户承担连带责任。

北京互联网法院秉承“给予受害者靠前一步的保护”理念,明确网络平台应对涉未成年人隐私信息负有更高注意义务。该案中,法院认定涉案视频中的未成年人特征明显,涉案网络平台符合第1197条规定之网络服务提供者“知道”情形;但经案外人举报才于第二天删除视频,属“未采取必要措施”而应与相关网络用户承担连带责任。判决公平公正,有力维护了未成年人合法权益。

为避免此类网络欺凌侵权案件再度发生,平台亟待建立健全完善的网络治理体系,承担互联网企业/行业的社会责任,以确保对未成年人进行充分且持续的网络保护。

首先,网络平台对“未成年人应受特殊、优先保护”的责任意识须不断加强,尤其在承担审核及删除等特定注意义务方面更是责任重大。我国未成年人保护法强调未成年人享有生存权、发展权、受保护权、参与权等权利,而这些权利的充分与完整实现有待于包括网络平台在内各个社会主体的义务履行。未成年人保护法第四条明确“保护未成年人,应当坚持最有利于未成年人的原则”,该条特别强调处理涉及未成年人事项,应当给予未成年人特殊、优先保护。此处“特殊保护”“优先保护”,必须结合“最有利于未成年人的原则”统合考量,即面对侵害未成年人合法权益尤其是涉及未成年人人格尊严、隐私权之事件时,所提供保护力度应显著高于对成年人的保护。具体到本案中,民众与法律对网络平台审查涉侮辱、诽谤、威胁或者恶意损害形象等未成年人网络欺凌行为之义务有极高期待,因而须进一步提高网络平台的职业素养和责任意识。

其次,网络平台应当不断健全涉未黄谣预警预防与识别监测机制,进一步优化相关算法模型,以期内容审核和识别更加严格、精准。网络技术日新月异,信息存储、内容辅助生成、模板生成视频等技术不断成熟,在降低用户使用专业门槛的同时,亦可能造成技术被滥用。网络平台可采用基于人工智能的数据分析技术与人工审核相结合的方式加强对网络欺凌信息的识别监测,开发识别和分类涉及未成年人黄谣内容的算法,及时监测可疑的在线活动,尽早尽快识别文字、图片、音视频等多种形式的未成年人黄谣信息。

最后,网络平台应当建立健全便捷、合理、有效的投诉、举报渠道,以便及时处置和有效应对涉未黄谣传播。在接到用户举报或权利人通知后,网络平台应立即停止传输相关信息,采取删除、屏蔽、断开链接等有效措施,防止已确认的未成年人黄谣信息进一步传播扩散。同时,网络平台应及时处理制作、复制、发布、传播未成年人黄谣信息的网络平台账号,根据情节轻重采取警示、限制功能、暂停服务、关闭账号等处置措施,保存有关记录并及时向网信、公安等部门报告。

(作者系北京理工大学(珠海)长聘教授、博士生导师)

转载请注明来自夏犹清建筑装饰工程有限公司,本文标题:《高中女生被造网络黄谣,平台未及时处理被判赔8000元》

每一天,每一秒,你所做的决定都会改变你的人生!

发表评论

快捷回复:

评论列表 (暂无评论,1人围观)参与讨论

还没有评论,来说两句吧...