Roblox(온라인 플랫폼 및 게임 생성 시스템)는 최근 연령 기반의 새로운 계정 시스템을 발표했으며, 2026년 6월부터 전 세계적으로 배포될 예정입니다. 이는 온라인 게임 플랫폼 겸 소셜 네트워크에서 어린이와 청소년을 보호하기 위한 큰 발걸음으로 간주됩니다.
Roblox의 발표에 따르면 9세 미만 사용자는 Roblox Kids 계정으로 분류되고, 9~15세 그룹은 Roblox Select 계정을 사용합니다.
분류는 기존 채팅 시스템과 유사하게 얼굴 추정 또는 신원 확인을 포함한 연령 확인 기술을 기반으로 합니다.
이러한 계정은 자동으로 다른 수준의 보호를 적용합니다. 표시되는 게임 콘텐츠는 콘텐츠 검열, 개발자 확인 및 플랫폼 사용 방법 평가를 포함한 여러 단계의 선별 프로세스를 거쳐야 합니다.
Roblox Kids 계정(5~8세)의 경우 9세 미만에게 적합한 게임만 표시됩니다. 채팅 기능은 기본적으로 꺼져 있고 인터페이스는 부모가 쉽게 인식할 수 있도록 특별히 설계되었습니다.
한편, Roblox Select(9-15세)는 중급 수준의 게임에 액세스할 수 있습니다. 사용자는 "신뢰할 수 있는 친구" 또는 같은 연령대의 사람들과만 채팅할 수 있습니다.
16세가 되면 계정은 표준 모드로 전환되어 18세 이상을 위한 제한된 콘텐츠를 제외하고 모든 기능을 잠급니다.
또한 Roblox는 감시 권한을 강화하기 위해 특정 게임을 차단할 수 있는 부모 제어 도구를 추가했습니다.
이러한 움직임은 플랫폼 안전 수준에 대한 학부모와 규제 기관의 지속적인 비판에 대한 Roblox의 가장 강력한 반응으로 간주됩니다.
국가들이 인터넷 연령에 대한 규정을 점점 더 강화하는 상황에서 Roblox는 2026년 1월부터 커뮤니케이션 기능을 사용하려는 사용자에게 연령 확인을 의무화했습니다. 이 회사는 매일 활동하는 사용자의 50% 이상이 확인을 완료했다고 밝혔습니다.
그러나 이 기술의 적용은 논란의 여지가 있습니다. 많은 전문가들이 얼굴 인식 도구의 개인 정보 보호 및 정확성과 관련된 위험을 우려하고 있습니다.
Electronic Frontier Foundation(미국에 본사를 둔 비영리 단체)은 특히 취약한 사용자 그룹의 경우 나이 추정 방법이 정확하지 않을 수 있다고 경고한 적이 있습니다.
심지어 2026년 3월에는 370명 이상의 글로벌 연구자들이 이점과 위험에 대한 충분한 과학적 증거가 있을 때까지 연령 확인 도구의 구현을 일시 중단할 것을 촉구하는 공개 서한에 서명했습니다.
안전을 보장하기 위해 Roblox의 모든 게임은 세 단계의 검열을 거쳐야 합니다. 첫 번째는 특히 16세 미만인 개발자의 신원을 확인하는 것입니다.
다음으로 실시간 자동 검열 시스템은 여러 요소를 기반으로 콘텐츠를 평가합니다.
마지막으로 게임은 연령 및 콘텐츠에 대한 구체적인 기준을 충족해야 어린 사용자에게 배포될 수 있습니다.
민감하거나 사회적 성격이 강하거나 자유로운 상호 작용을 허용하는 콘텐츠는 Kids 및 Select 계정에서 삭제됩니다.