社媒监管不足被点名整改 新加坡如何把关青少年网络安全?
TikTok 和 X 安全得分最低
刷社交媒体,早已是青少年生活的一部分。但他们每天花几个小时泡在上面的平台,真的安全吗?
新加坡资讯通信媒体发展局(IMDA)在3月31日公布了最新的网络安全评估报告,对脸书、Instagram、TikTok、X、YouTube和HardwareZone论坛六大平台进行了评估,重点关注这些平台是否有效保护本地用户,尤其是青少年,免受有害内容的影响。
报告所指的有害内容包括色情、暴力、自杀与自残、网络霸凌、危害公共卫生,以及鼓吹不良嗜好和犯罪行为。
结果显示,一些平台仍存在明显漏洞:
在X平台上,涉及新加坡用户的儿童性剥削和虐待内容数量从2024年的33起增加到2025年的73起,有些内容甚至在网上存留了长达31周;
TikTok则有17起由新加坡账号发布的恐怖主义内容,被举报后也未被认定为违规。
资媒局已向X和TikTok发出告诫信,要求它们“认真整改”,改善内容监测和删除机制,并定期汇报进展。
具体措施包括:利用人工智能强化侦测系统、识别针对新加坡用户的特定暗语和手法、加强人工审核培训,以及提升业界与监管机构之间的信息共享。
若X和TikTok未能有效落实整改措施,资媒局将考虑采取进一步行动,包括依据《广播法令》处以最高100万新元罚款。
危害不仅仅来自内容
社交媒体的危害不仅来自内容本身,它的设计和使用时间也可能让青少年上瘾。
最近,美国洛杉矶出现了首起社交媒体成瘾案。一名20岁的女子控告Meta和谷歌,称自己小时候因为YouTube和Instagram的一些设计而上瘾,最终患上了焦虑症、抑郁症和身体臆形症。
3月24日,陪审团判定两家公司负有责任,并要求赔偿600万美元(约770万新元),这是美国首例针对社交媒体成瘾的判决。
判决指出,Meta和谷歌在应用设计和运营上存在疏忽,没有充分提醒用户特别是未成年人可能面临的风险。被认为容易让人上瘾的功能包括通知提醒、点赞、评论、无限滚动、视频自动播放,以及美颜滤镜等改变外貌的工具。
此外,《全球幸福指数报告》显示,每天使用社交媒体超过五小时的15岁女孩,幸福感明显低于使用时间少的同龄人。在美国、加拿大、澳大利亚和新加坡,25岁以下年轻人的幸福感下降尤其明显,女生受影响最大。
设年龄验证、举报机制和网络安全委员会
不同国家应对青少年的网络风险方式各不相同。
澳大利亚选择强硬出手,禁止16岁以下青少年使用TikTok、X、Instagram和YouTube等主流平台。印尼也从3月28日起,分阶段停用16岁以下用户账号,以防孩子沉迷或接触有害内容。
相比之下,新加坡的做法更为温和,不倾向直接封禁。
数码发展及新闻部长杨莉明指出,社交媒体本身的一些功能存在潜在风险,例如私信功能可能让年轻用户遭遇陌生人骚扰,自动播放功能容易导致沉迷。
“在现实生活中,我们会提醒孩子不要和陌生人说话,但在网络世界里,陌生人可以直接联系他们,这让家长很难监管。”
如果禁令过于严格,孩子可能转向更隐蔽的平台,反而更难监管;即便获得家长同意,未成年人也可能绕过限制,实际效果有限。
与其采取“一刀切”的封禁,新加坡倾向在平台上设立完善的措施:
从4月1日起,应用商店必须落实年龄验证(age assurance),覆盖六大平台即:脸书、HardwareZone论坛、Instagram、TikTok、X,以及YouTube,确保未成年人在下载和使用时得到更严格保护。
资媒局正在与平台沟通,优化举报机制,让青少年或家长在遭遇网络伤害时能够更快、更方便地申诉。
资媒局计划在6月底成立网络安全委员会(Online Safety Commission),为网络受害者提供统一的申诉渠道。委员会将协助移除有害内容、限制违规账户,并在必要时公开施害者身份。
相比采取严格封禁的国家,新加坡更注重在科技发展和青少年保护之间找到平衡。既不给孩子完全封锁网络自由,也尽量降低他们接触有害内容的风险。
不过,这条路布满荆棘与挑战。
随着人工智能、推荐算法和社交媒体功能不断升级,网络环境越变越复杂。
如何在保护孩子的同时,让他们保留合理的网络使用自由,将是未来几年新加坡社会必须面临的棘手挑战。