메타, 청소년 보호 조치 강화
반복적인 유해 키워드 검색 포착 시 경고 발송
인스타그램이 청소년 사용자가 자살이나 자해 등 위험한 콘텐츠를 반복적으로 검색할 경우 부모에게 이를 즉시 알리는 기능을 도입한다. 인스타그램은 26일 청소년 안전을 위한 강화된 보호 대책을 발표하며, 미국과 캐나다, 영국 등 주요 국가에서 우선 시행에 들어간다고 밝혔다.
이번 기능은 부모 감독 도구를 설정한 계정을 대상으로 운영된다. 청소년이 단시간 내에 부적절한 키워드를 여러 번 검색하면 부모의 기기에 즉각 알림이 전송되는 방식이다. 이와 함께 부모가 자녀의 심리적 상태를 살피고 대화를 시작할 수 있도록 전문가 가이드라인과 공신력 있는 지원 기관의 연락처가 함께 제공된다.
모기업인 메타 측은 인스타그램이 이미 자해 관련 검색어 자체를 차단하고 상담 전화로 연결하는 정책을 시행 중이지만, 이번 알림 기능은 부모가 자녀의 위기 징후를 직접 인지하도록 돕는 데 목적이 있다고 설명했다. 아울러 올해 말부터는 인공지능과의 상담 도중 위험 징후가 포착될 때도 부모에게 알림이 가도록 서비스를 확대할 계획이다.
이러한 조치는 최근 소셜미디어의 중독성과 유해성이 청소년 정신 건강에 악영향을 미친다는 비판과 함께 대규모 소송이 이어지는 가운데 나온 자구책으로 풀이된다. 현재 메타는 인스타그램 등이 청소년 사용자에게 해를 끼친다는 이유로 350명 이상의 학부모와 지역 교육청으로부터 소송을 당한 상태다.
인스타그램은 2024년부터 청소년 전용 계정을 도입해 유해 콘텐츠 노출을 차단하는 등 환경 개선을 이어오고 있다. 이번 신규 알림 기능은 미국과 캐나다, 영국, 호주에서 먼저 시작되며, 연내 다른 국가들로 순차적으로 확대될 예정이다.
<윤연주 기자>
[시카고 한인사회 선도언론 시카고 한국일보]
1038 S Milwaukee Ave Wheeling, IL 60090
제보: 847.290.8282
