未成年人的上网安全一直都是社会所关注的话题,积极保护未成年人也是Soul这类优秀网络社交平台的共识,目前,Soul已经建设了严格的自身机制,全方位的保护未成年人网络交友安全。
随着国家修订后的《未成年人保护法》正式通过,Soul公司内部对于青少年的安全保护措施也引起了人民网的关注,以下转载自人民网对Soul App的报道《持续治理网络生态 未成年人网络保护更应关注社交软件安全》。
Soul对未成年人注册进行设定
Soul实行新的准入机制即对注册年龄下限为设定为18周岁,未满18周岁的用户将不允许注册。注册年龄为18岁以下的存量用户会自动进入“青少年模式”,且不可自行设置退出青少年模式。若需退出青少年模式,须将年龄更改为 18 岁及以上,而更改年龄需上传本人手持身份证照片,通过平台人工审核后年龄更改方能生效。此举措意在避免未成年用户借用他人身份信息更改个人年龄。
Soul严格分割未成年人交友界限,避免诈骗行为发生
Soul对未成年用户与成年用户进行严格分割,规避成年用户骚扰未成年的可能。在用户管理上面,Soul不对未成年用户开放“恋爱铃”、“脸基尼匹配”等的入口,仅保留“灵魂匹配”功能,且在具体功能中设定未成年仅能匹配到未成年用户。所有用户每日首次进入APP时,均会在进入广场前弹出“青少年保护”的相关提示,并插入“青少年模式”的说明供用户查阅了解。
Soul对未成年人发布内容实时监测,智能过滤不适合内容产生
在用户内容发布层面,未成年发布的内容除需经过系统过滤,还要由经过“未成年人保护”相关内容培训的审核人员进行单独审核。
Soul努力用更完善的技术,更有效的机制营造一种热爱生活、拼搏进取的正能量社交氛围,让未成年人免受不良网络信息侵害,茁壮成长。
Soul在安全可控的基础上,为年轻用户提供幸福感和获得感的社交体验,Soul展现真实、温暖的社交面貌,正代表着引导年轻人和未来发展趋势的新一代社交产品。未来,Soul将持续关注未成年人相关政策,为未成年人的网络社交提供安全的环境。