1. 혐오 발언 정의 및 법적 근거 명확화
한국 법은 혐오 발언을 모욕죄, 명예훼손 등으로 간접 규제하여, 집단 대상성, 차별적 의도 등 혐오 발언의 특성을 포괄하기 어렵습니다.
포괄적 온라인 혐오 발언 정의 신설: 특정 집단(인종, 성별, 종교, 장애, 성적 지향, 나이, 출신 지역, 사상 등)에 대한 차별, 비하, 모욕, 위협, 폭력 선동, 존재 부정 등을 목적으로 하는 온라인상의 모든 디지털 표현을 혐오 발언으로 명확히 정의해야 합니다. 이는 AI 생성 콘텐츠까지 포괄해야 하며, 단순 감정적 비난을 넘어 차별적 의도와 피해 유발 가능성에 중점을 둡니다.
「온라인 혐오 발언 규제 및 피해자 보호에 관한 특별법」 제정: 현행법의 한계를 보완할 특별법 제정이 필요합니다.
혐오 발언 유형별 처벌 기준 구체화: 단순 게시를 넘어 조직적 생산 및 유포, 다단계적 확산, 수익 창출 행위 등 온라인 행위 유형에 따른 가중 처벌 기준을 마련합니다.
명확한 법적 절차 마련: 수사, 삭제, 피해 구제 등의 절차를 법률에 명시하여 신속한 처리를 돕습니다.
‘불법 정보’ 개념에 혐오 발언 명시: 「정보통신망 이용촉진 및 정보보호 등에 관한 법률」에 혐오 발언을 포함하여 플랫폼의 삭제 의무와 심의 근거를 확립합니다.
사법기관 전문성 강화: 온라인 혐오 발언의 특수성을 이해하고 디지털 증거 수집·분석에 능통한 전문 수사팀 및 재판부를 증설하여 사건 처리의 효율성을 높여야 합니다.
2. 온라인 플랫폼의 책임 및 의무 강화
혐오 발언 확산의 주요 통로인 플랫폼 사업자에게 더 큰 책임과 의무를 부여해야 합니다. 독일 등 유럽 국가들은 이미 플랫폼 책임을 강화하는 법안을 시행 중입니다.
'신속 삭제 의무' 법제화 및 제재 강화:
독일 NetzDG 벤치마킹: 혐오 발언 신고 접수 후 24시간 이내 명백한 불법 콘텐츠를 삭제하지 않을 경우 강력한 과징금을 부과하는 조항을 신설해야 합니다.
이의 제기 절차 마련: 이용자가 삭제 결정에 이의를 제기할 수 있는 객관적이고 투명한 재검토 절차를 의무화하여 표현의 자유 침해 논란을 방지합니다.
사전 모니터링 및 필터링 시스템 구축 의무: 혐오 발언이 빈번한 대형 플랫폼에 AI 기반 혐오 발언 탐지 및 필터링 시스템 구축을 의무화하고, 운영 현황을 정기적으로 보고하도록 합니다. AI 탐지 한계를 보완하기 위해 전문 인력의 최종 검토를 반드시 거치도록 시스템을 설계해야 합니다.
신고 시스템 개선 및 투명성 제고:
간편하고 접근성 높은 신고 시스템: 모든 서비스 채널에서 쉽게 신고할 수 있도록 절차를 간소화하고, 익명 신고 채널도 마련합니다.
처리 결과 공개 의무: 플랫폼 사업자는 혐오 발언 신고 처리 데이터를 정기적으로 투명하게 공개하고 정부 감사를 받도록 해야 합니다.
혐오 발언 행위자 정보 제공 협력 의무 강화: 법원의 영장 또는 수사기관 요청 시, 플랫폼 사업자가 혐오 발언 게시자의 IP 주소, 가입 정보 등 신원 확인에 필요한 정보를 신속하게 제공하도록 의무를 강화하고, 미이행 시 제재를 가합니다.
3. 처벌 수위 상향 및 양형 기준 강화
온라인 혐오 발언의 파급력을 고려하여 현행보다 높은 처벌을 규정하고, 사법부 양형 기준을 강화하여 실질적인 억제 효과를 가져와야 합니다.
벌금형 및 징역형 대폭 상향: 온라인 혐오 발언의 벌금형 하한선을 높이고, 피해가 심각하거나 조직적인 경우 징역형을 적극적으로 선고하도록 양형 기준을 강화합니다.
가중 처벌 조항 신설:
재범자 가중 처벌: 혐오 발언으로 처벌받은 전력이 있는 자의 재범 시 형량을 가중합니다.
조직적/반복적 혐오 발언 가중 처벌: 다수 공모 또는 특정 집단을 대상으로 한 지속적/반복적 혐오 발언에 대해 가중 처벌합니다.
취약 계층 대상 혐오 발언 가중 처벌: 아동, 청소년, 장애인, 성소수자 등 사회적 약자를 대상으로 한 혐오 발언은 더욱 엄중하게 처벌합니다.
피해자에 대한 손해배상 청구권 강화 및 징벌적 손해배상 도입: 피해자가 가해자에게 실질적인 손해배상을 청구할 수 있도록 법적 근거를 강화하고, 고의적인 혐오 발언에 대해 징벌적 손해배상 제도 도입을 검토합니다. 플랫폼 사업자에게도 일정 부분 배상 의무를 부과하는 방안을 논의합니다.
4. 온라인 혐오 발언 피해자 지원 강화 및 예방 교육 확대
법적 제재와 더불어 혐오 발언 피해자 보호 및 사회 전반의 인식 개선 노력이 중요합니다.
온라인 혐오 발언 피해자 전담 지원 기관 확충: **‘온라인 혐오 발언 피해자 지원센터’**를 설립하여 법률 자문, 심리 상담, 디지털 증거 수집 지원, 삭제 요청 대행 등 원스톱 서비스를 제공합니다. 익명 피해 신고 시스템을 활성화하여 피해자의 신상 노출 부담을 줄입니다.
미디어 리터러시 및 혐오 발언 예방 교육 의무화:
정규 교육 과정 편입: 초·중·고교 정규 교육 과정에 디지털 윤리 및 미디어 리터러시 교육을 강화하고, 혐오 발언의 심각성, 비판적 사고, 대응 방법을 필수적으로 다룹니다.
공공기관 및 기업 교육 의무화: 공공기관, 기업 등에서도 혐오 발언 예방 및 인권 감수성 교육을 의무화합니다.
대국민 인식 개선 캠페인: 혐오 발언의 문제점을 알리고 다양성 존중 문화를 확산하는 캠페인을 지속적으로 추진합니다.
댓글 -
정렬기준
0/300