1. 제안 배경
최근 인공지능(AI)의 비약적 발전은 인간 사회의 정보처리, 의사결정, 소통 구조 전반에 근본적인 변화를 일으키고 있습니다. AI는 인간의 인지능력과 비교할 수 없는 속도로 방대한 데이터를 분석하고 응답하며, 이미 교육, 행정, 의료, 법률, 언론 등 주요 영역에 도입되고 있습니다.
그러나 AI는 도덕적 자율성이나 윤리적 분별력을 지니지 않은 기술에 불과합니다. 그 설계 의도, 학습 데이터, 활용 환경에 따라 사실과 허위, 공익과 사익, 민주성과 독점성 사이의 경계를 위태롭게 넘나들 수 있습니다.
최근 일부 AI 서비스에서는 사실을 왜곡하거나 편향된 정보를 반복 확산하는 사례가 확인되고 있으며, 이는 공공의 신뢰를 훼손하고, 민주적 공론장을 위협하며, 사회적 혼란과 불평등을 심화시킬 수 있는 구조적 위험 요인으로 지목되고 있습니다.
이에 따라, 모든 국민이 AI 기술을 안전하고 공정하게 활용할 수 있도록, ‘사실 기반 정보체계 보호’와 ‘AI의 책임성과 투명성 확보’를 위한 종합적인 제도 개선이 시급한 상황입니다.
2. 주요 문제점
가. 알고리즘의 불투명성과 검증 불가능성
민간 기업 주도의 AI 모델들은 그 알고리즘 설계 의도, 학습 데이터의 편향성 여부, 추천 결과의 기준 등을 공개하지 않아, 사용자가 응답의 신뢰도를 판단하거나 반론을 제기하기 어려운 구조입니다.
나. 편향된 정보의 반복 확산
특정 이념이나 기업 이해관계에 따라 AI가 편향된 정보를 반복 노출할 경우, 시민은 왜곡된 인식에 노출되고 사회적 판단력은 집단적으로 왜곡될 위험이 있습니다.
다. 자동화된 허위정보 생성 및 전파
AI를 통해 고속으로 생성되는 허위 기사, 딥페이크 이미지, 조작된 요약문은 진실 여부를 가리는 데 큰 혼란을 초래하며, AI 특성상 1차적 신뢰도를 높이기 때문에 피해가 광범위하게 확산될 우려가 있습니다.
라. 피해 발생 시 책임 주체의 불명확
AI가 생성한 정보로 인해 개인의 명예가 훼손되거나 허위 사실이 유포된 경우, 이용자, 개발자, 운영 기업 간 책임 분산으로 인해 실질적 구제나 사후 책임 추궁이 어려운 구조입니다.
3. 정책 제안
가. 「AI 알고리즘 설명책임법」 제정
- AI가 제공하는 응답·추천·요약 등의 기준과 알고리즘 설계 목적, 학습 데이터의 출처를 공개할 의무 부과
- 국회 산하 또는 독립 공공기관 내 ‘AI 알고리즘 감시위원회’ 설치 및 정기 평가제 도입
- 공공서비스 영역(AI 민원안내, AI 교육보조 등)에서는 오픈소스 알고리즘만 사용하도록 법제화
나. 「공공 AI 정보검증센터」 설립
- AI가 생성하거나 요약한 콘텐츠에 대해 ‘사실 검증’, ‘편향성 분석’, ‘정정 이력 관리’를 수행하는 공공센터 운영
- 시민 누구나 AI 응답에 대한 이의제기 및 정정 요청 가능하도록 ‘AI 응답 이력 열람 및 이의신청 포털’ 구축
다. AI 생성 콘텐츠 표시 의무화
- 언론, SNS, 교육자료, 행정정보 등에서 AI가 생성·요약·번역한 경우 반드시 “AI 생성 콘텐츠”라는 문구 표기
- 선거, 재난, 법률 등 공공성 높은 분야에 대해서는 검증 마크 없이 AI 콘텐츠 사용을 제한하거나 경고 표시 의무화
라. AI 법적 책임체계 명문화
- AI의 응답으로 발생한 허위사실 유포, 명예훼손, 차별 조장 등에 대해 운영자 및 개발자의 법적 책임 소재를 명확히 규정
- 피해자는 민사상 손해배상 청구 가능하도록 「AI 생성정보 책임법」 신설 및 연동
마. 공공 AI 플랫폼 구축 및 민간 독점 방지
- 국가 또는 공공기관이 주도하여 시민 누구나 접근 가능한 공공 AI 언어모델 개발 및 배포
- 민간 기업이 AI 기반 여론·정책·검색 시스템을 독점하지 못하도록 공공 알고리즘 시장 개방 제도 마련
4. 기대 효과
- 허위 정보 유통 차단과 공론장의 신뢰성 제고
- AI 기술의 공공적 활용 및 시민 정보 권리 보호
- 알고리즘 독점과 정보 편향에 대한 사회적 방어력 확보
- AI 기술의 민주적 통제 및 인권 중심 질서 확립
5. 결론
AI는 기술일 뿐이며, 그 방향성과 영향력은 인간 사회가 어떤 철학과 윤리를 가지고 설계하고 통제하느냐에 따라 결정됩니다. 지금 우리는 인류 역사상 처음으로 모든 인간에게 지식과 조언, 판단을 실시간 제공하는 ‘초개인화된 인지 파트너’를 접하고 있으며, 그만큼 기술에 대한 윤리적 감시와 제도적 안전망은 절실해졌습니다.
AI를 통한 발전은 인류의 이익을 위한 것이어야 하며, 모든 기술은 인간의 자유와 존엄을 중심으로 작동해야 합니다.
본 제안서는 AI 기술의 공공성과 투명성을 강화하고, 모든 시민이 사실에 기반한 사회적 대화에 참여할 수 있는 환경을 보장하기 위한 기초적 장치를 마련하고자 하는 첫걸음입니다.
더 늦기 전에, AI는 감시되어야 합니다.
그리고 인간은 다시 그 거울 앞에 서야 합니다.
댓글 -
정렬기준
0/300