(吉隆坡2日讯)儿童性剥削制品(CSAM)的泛滥不仅是一种隐藏的网络犯罪,还会留下长期的心理创伤,因此博特拉大学人类发展与家庭研究系高级讲师奈丽依斯迈博士指出,2025年网络安全法令通过平台问责制来遏制剥削性内容的传播。

她指出,虽然父母仍是保护儿童的第一道防线,但像该法令这样的结构化支持至关重要,而且该法令的实施恰逢其时,因为防止网络剥削的责任不能仅停留在用户层面,而应由控制内容设计和传播的平台承担。
“儿童的认知和情感成熟度不足以在复杂的数码环境中保护自己,将责任完全压在他们或父母身上既不现实也存在风险。
“当儿童的情感需求未得到满足、感到孤独、缺乏监管以及在缺乏安全意识的情况下过早接触网络时,他们更容易受诱骗。因此,平台必须进行安全设计并尽早发现问题,而不是可有可无。”
奈丽向“马新社”指出,真正安全的平台应涵盖早期预防、符合伦理的算法监控、快速应对机制以及清晰的支持渠道,使2025年网络安全法令的实施超越技术层面,减少受害者再次接触创伤性内容,并更容易获得专业援助。
她补充,即使内容不含明显性元素,反复接触突出儿童身体的内容,也可能使过早性化被正常化,破坏自我形象与身体界限的建立,这进一步凸显该法令的必要性,以确保社媒算法不仅追求用户参与度,也能保护儿童的心理发展。
2025年网络安全法令于昨日生效,标志着监管责任的转变,旨在确保防止网络剥削不再仅是受害者或父母的责任,而是数码平台提供商的责任。
平台须主动检测有害内容
通讯及多媒体委员会发展部副总经理埃能法丽达说,2025年网络安全法令明确规定数码平台服务提供者的责任,以保障用户安全,并优先保护儿童、防止儿童性剥削制品内容的传播。

她指出,在该法令下,平台不能再完全依赖用户举报,而必须主动检测并删除包括性剥削和性侵内容在内的有害内容。
“平台对自身系统和内容拥有最大的控制权,因此在该法令框架下,保护用户,尤其是儿童,确保监管有害内容是平台的责任。
“这并非为了惩罚用户,而是确保平台主动承担起责任,认真对待儿童安全问题。人民需要保护,而该法令正是为满足这一需求而制定的。”
她补充,平台服务提供者也有责任制定全面的网络安全计划,包括有效的投诉管道、安全使用指南,以及教育用户了解不当内容风险和自我保护方法。