본문 바로가기
AI빅데이터

AI 윤리 거버넌스 책임 원칙 정리

by 매일기술사 2026. 3. 24.
AI/Big Data · 한장정리

[기술사토픽] AI 윤리 & 거버넌스 완벽 정리 - 한장정리

AI 윤리 원칙, 설명가능AI(XAI), AI 편향성, EU AI Act, 국내 AI 정책까지 기술사 빈출 주제를 완벽 정리합니다.

AI윤리XAI설명가능AIAI편향성EUAIActAI거버넌스정보관리기술사

Ⅰ.AI 윤리 원칙

개념: AI 윤리는 AI 시스템의 개발·배포·사용 과정에서 사회적 가치와 인간의 권리를 보호하기 위한 원칙 체계입니다.

주요 기관 AI 윤리 핵심 원칙
OECD 투명성·공정성·견고성·책임성·포용성
UNESCO 인권·존엄성·환경 지속가능성·다양성·평화
EU HLEG 인간 주도·기술적 견고성·프라이버시·투명성·공정성·사회적 복지·책임
한국 정부 인간 중심·투명성·안전·공정성·프라이버시·연대·책임성
나. AI 편향성(Bias) 유형
편향 유형 원인 예시
데이터 편향 편향된 훈련 데이터 채용 AI가 특정 인종 불리하게 판단
알고리즘 편향 모델 설계 문제 얼굴 인식 유색인종 정확도 낮음
배포 편향 사용 맥락 불일치 의료 AI를 다른 인구에 적용
피드백 루프 편향된 결과가 재학습에 사용 추천 시스템의 필터 버블

Ⅱ.설명가능 AI & 규제

가. XAI (설명가능 AI)
기법 설명 적합 모델
LIME 국소 근사 모델로 개별 예측 설명 블랙박스 전체
SHAP 게임이론 기반 특성 기여도 측정 블랙박스 전체
GRAD-CAM CNN 특성 맵으로 예측 근거 시각화 CNN
Attention 시각화 Transformer 어텐션 가중치 시각화 Transformer
결정 트리 대리 복잡 모델을 결정트리로 근사 설명 블랙박스 전체
나. EU AI Act (세계 최초 AI 규제법)
위험 등급 대상 규제 수준
허용 불가 사회적 점수제·실시간 생체인식 공공감시 전면 금지
고위험 의료·교육·채용·법집행 사전 적합성 평가 의무
제한된 위험 챗봇·딥페이크 투명성 의무 (AI임을 고지)
최소 위험 스팸 필터·AI 게임 규제 없음 (자율 규범)
시험 포인트

XAI 핵심: SHAP = 특성별 기여도를 게임이론으로 공정하게 분배.
EU AI Act: 위험 기반 접근법. 고위험 AI는 인간 감독·투명성·견고성 요구.

Ⅲ.결론

결론

AI 윤리와 거버넌스는 기술적 탁월성과 사회적 신뢰의 균형을 위한 필수 요소입니다.
향후 AI 감사·AI 책임성 법제화·알고리즘 영향평가가 의무화될 것입니다.

"AI가 강력할수록 책임도 커진다. 기술을 만드는 것만큼 올바르게 쓰는 것이 중요하다."

블로그: 기술사 학습노트 · imt-log.tistory.com