요즈음의 아동・청소년은 태어날 때부터 디지털 환경에 둘러싸여 생활하는 ‘디지털 원주민(digital native)’이다. 반면, 우리나라는 레거시 미디어 관련 이용자 보호 법제가 형성되어 있는 것과 대조적으로 온라인 미디어 플랫폼 등에 대한 이용자 보호 입법은 여전히 미비하다. 이로 인해 지금의 과도기에는 온라인 환경에서의 아동·청소년 보호가 소홀해질 우려가 있다. 가령, 한국의 영상물등급위원회는 미디어 플랫폼 산업의 발전과 이용자 보호의 균형을 위한 선택으로 ‘OTT 자체등급분류제도’를 운영하는 등의 노력을 기울이고 있지만, 온라인상에서의 아동·청소년에 대한 위험 요소는 다양하므로 다각적 접근의 입법정책적 보완이 필요할 것으로 보인다. 이와 관련하여 최근 EU를 비롯하여 호주와 영국은 온라인상 아동·청소년 안전에 관한 포괄적 법제의 기초적 틀을 마련하였기에, 이 연구에서는 EU·호주·영국의 법제에 비추어 우리나라 관련 입법사항의 적정성을 논의하고 개선방안을 살펴보고자 했다. 살펴본 결과, 「EU시청각미디어서비스지침」은 ‘이용자제작 동영상’, ‘소셜미디어서비스’, ‘주문형시청각미디어서비스’ 모두를 포섭 대상으로 하면서, 아동・청소년의 신체・정신・도덕적 발달에 유해한 영향을 줄 수 있는 대부분의 콘텐츠를 제한할 수 있는 규제를 갖추고 있었다. 한편, 「호주 온라인 안전법 2021」상 온라인안전국(eSafety Commissioner)은 아동・청소년을 대상으로 하는 ‘사이버불링’, ‘이미지 기반 남용’, ‘그루밍’, ‘독싱’ 등 다양한 온라인 안전문제를 통합적으로 신고 접수 받아 관리하고 있는 점에서 모범 사례로 평가할 수 있다. 마지막으로, 「영국 온라인안전법 2023」은 ‘아동접근평가제도’를 도입하여 일정 수 이상의 아동 이용자가 확인되는 플랫폼에는 추가 의무를 부여함으로써 이용자 위험을 최소화하고 법 적용대상인 ‘이용자 간 서비스’ 및 ‘검색서비스’ 업체의 책임을 강화하는 것이 특징적이다. 이러한 EU・호주·영국의 아동·청소년 온라인 안전을 위한 규제 및 관리모델은 우리나라의 아동・청소년 온라인 안전 보호법제 마련 시 비교법적인 연구가치가 높다. 그러므로 우리나라에서도 향후 이와 관련한 다양한 연구를 통해서 ‘(가칭)아동・청소년 온라인 안전위원회’ 등을 조직하여 원스톱으로 아동・청소년의 온라인 안전을 관리하고, 아동·청소년의 이용률 및 이용가능성이 높은 온라인 플랫폼 등에 대해서는 책임성을 높이는 입법・정책 등을 마련할 수 있을 것으로 기대된다.
Children and adolescents, known as ‘digital natives’, are immersed in a digital environment from birth. Unfortunately, although South Korea has implemented user protection laws for legacy media, effectively regulating online video platforms continues to be a significant challenge. During this transition, concerns arise about potentially overlooking the protection of children and adolescents online. For instance, the Korea Media Rating Board has initiated efforts like a self-rating system for OTT platforms to address these concerns. However, the extensive online risks to children and adolescents call for a more comprehensive legislative and policy framework. Recent legislative development in the EU, Australia, and the UK have set precedents for robust online safety laws for these demographic. This study evaluates the suitability of Korea"s laws against those of the aforementioned regions to identify potential enhancements. Findings are as follows: The EU"s AudioVisual Media Services Directive (AVMSD) covers user-generated content, social media, and on-demand services, offering protections against content that could harm the physical, mental, and moral development of children and adolescents. In Australia, the eSafety Commissioner serves as a exemplary model by integrating and managing reports of various online issues, including cyberbullying, image-based abuse, grooming, and doxxing targeting children and adolescents. Lastly, the UK"s Online Safety Act 2023 introduces ‘Children"s Access Assessments (CAA)’, which imposes additional obligations on platform that are found to have a significant number of child users, thereby minimizing user risks and enhancing the accountability of ‘user-to-user services’ and ‘search services’ covered by the law. These regulatory and management models from the EU, Australia, and the UK provide valuable insights for Korea to develop a robust legislative framework for the online safety of children and adolescents. Therefore, based on various studies on this issue, it is expected that Korea could organize a ‘provisional Committee for Online Safety of children and adolescents’. The Committee would manage online safety comprehensively and streamline the process. Additionally, Korea could enact legislation and policies that enhance the accountability of online platform, particularly those with high usage and accessibility rates among these demographics.