Soul是一款上線于2016年的社交應用,其獨特的社交玩法一經上線便得到了眾多年輕人的喜愛,并成為了年輕人重要的線上樂園之一。歷經多年發(fā)展,Soul成功躋身社交領域頭部行列。期間,Soul在不斷擴大自身發(fā)展的同時也積極投入到網絡安全生態(tài)的建設中,并創(chuàng)新了青少年安全生態(tài)管理模式,為青少年構筑了清朗的社交空間。
據Soul發(fā)布的《2023年第一季度生態(tài)安全報告》顯示,在2023年第一季度,平臺對反電信網絡詐騙、社交禮儀引導、用戶共治眾裁和防治網暴騷擾四個領域進行了專項治理。在這些領域中,Soul不僅維護了用戶的基本權益,還積極創(chuàng)新了社區(qū)治理模式,進一步增強了平臺用戶的安全感和體驗感。
例如對于網絡詐騙,Soul采取了定向叫醒機制,針對不同類型的詐騙和易感人群,定向發(fā)送提醒,有效阻斷了詐騙的流程,大大降低了用戶上當受騙的風險。此外,Soul還積極配合公安機關打擊詐騙團伙,公布了相關數(shù)據:一季度日均攔截98%以上的導流欺詐行為,同比減少了75%的導流外溢案件。
在社交禮儀引導方面,平臺上首創(chuàng)了社交禮儀分體系,為每一位用戶在Soul的社交互動、文明發(fā)言等行為留下禮儀足跡。平臺根據用戶在平臺各個社交場景下的行為進行打分,對用戶的行為規(guī)范有一套完整的獎懲機制。上線后,日均騷擾對話行為比體系上線前下降7%,日均因違反社交規(guī)則被限制功能使用的人數(shù)達2萬余人。
對于未成年人群體,Soul更是獨具匠心。Soul認識到,互聯(lián)網平臺是信息內容生產傳播的重要渠道,同時也是未成年人生活、學習、交友的主要場所。因此,平臺應當具有社會屬性和公共屬性,要盡可能地保護未成年人的權益。
為此,Soul APP嚴格要求18周歲以下用戶不能注冊,新注冊用戶初入平臺需要進行實名認證,若確認用戶為未成年人,則無法進入成年模式。目前,Soul上的未成年用戶為過往的存量用戶,且占比極低。這批用戶只能在青少年模式下使用產品,與成年用戶相區(qū)隔。
此外,Soul還設立了用戶舉報機制,并通過智能巡檢和人工巡檢(如組建“護星隊”強化日常巡檢)途徑,尋找疑似未成年人的相關信息,并引導其進行實名認證。
為了識別并阻斷那些有意誘導未成年提供不當內容的人,Soul還依托自身技術能力,建立了一套未成年內容識別模型,能對用戶發(fā)布的文字、語音、圖片等內容進行年齡特征識別。通過這種方式,Soul能有效地識別出"假成年人",并采取相應的措施保護未成年人的社交安全。
另外,Soul嚴格把關青少年模式下的內容,不斷優(yōu)化青少年模式內容池,致力于為青少年提供更多優(yōu)質和正能量內容。為了避免未成年人沉迷網絡,Soul還上線了防沉迷機制,未成年人用戶僅可在規(guī)定時間內(8:00~22:00)訪問平臺,并對青少年模式中未成年用戶的當日累計時長進行了限制,累計時長不超過40分鐘,當使用時間超過限制要求時,平臺將鎖定當前頁面,并彈出提醒文案,時刻提醒青少年用戶注意健康。
Soul在社交理念與玩法、平臺技術創(chuàng)新能力、平臺安全生態(tài)建設等多方面都獲得了業(yè)內外的一致認可,這些肯定將成為未來Soul持續(xù)發(fā)展的源動力。此外,Soul還將持續(xù)履行平臺的社會責任,攜手各方共同推動互聯(lián)網安全生態(tài)建設,以小我奉獻大我,共同守護互聯(lián)網安全。
免責聲明:市場有風險,選擇需謹慎!此文僅供參考,不作買賣依據。