EU, 메타 아동 보호 조치 미비로 조사 강화 선언
유럽연합(EU)은 메타가 13세 미만 아동이 소셜 미디어를 이용하는 것을 효과적으로 차단하지 못함에 따라 EU 디지털서비스법(DSA)를 위반했다며 조사를 강화하겠다고 공식 발표했다. 헤나 비르쿠넨 EU 집행위원회 부위원장은 29일(현지시간)에 진행된 기자회견에서 메타의 페이스북 및 인스타그램이 명확하게 13세 미만 아동을 위한 서비스가 아니라는 점을 고지하고 있지만, 실제로는 이들 아동의 접근을 적절히 차단하기 위한 시스템을 구축하고 있지 않다고 지적했다.
EU 집행위원회는 메타 플랫폼들이 사용자로 하여금 생년월일을 입력하도록 요구하고 있지만, 이를 통해 미성년자를 제대로 식별하고 차단할 수 있는 실질적인 시스템이 결여되어 있다고 덧붙였다. 이런 문제는 아동의 안전과 관련된 우려가 커지고 있는 상황에서 더욱 심각하게 바라보아야 할 사안으로, 아동 보호를 위한 기술적 조치가 적법하게 이행되지 않는 것에 대한 우려가 제기되고 있다.
이러한 상황 속에서 메타는 EU의 예비 조사 결과에 대한 발 빠른 대응을 보여줘야 할 것이다. EU 측에서는 향후 추가 조사를 통해 메타가 DSA를 위반한 것으로 최종 결정될 경우, 메타에는 전 세계 연간 총매출의 최대 6%에 해당하는 막대한 벌금이 부과될 수도 있다는 점을 강조했다. 이는 유럽 시장에서 비즈니스를 운영하는 모든 기업에게 중요한 경고 메시지가 될 것이며, 메타는 아동의 안전을 지킬 의무가 있다는 점을 다시 한번 상기해야 한다.
이와 같은 조치는 디지털 환경에서 아동 보호가 중요한 이슈로 부각되고 있는 가운데 이루어지는 것으로, 앞으로 보다 강력한 대책과 기술적 개선이 요구된다. 메타가 자사의 플랫폼에서 아동이 안전하게 이용할 수 있는 환경을 조성하지 않는다면, 향후 EU와의 갈등이 더욱 심화될 가능성도 배제할 수 없다. 이러한 상황은 또한 다른 플랫폼들에게도 귀감이 될 수 있으며, 아동 보호 관련 규정 준수가 기업의 지속 가능성과 직결된다는 중요한 교훈을 심어줄 것이다.