AI/Big Data · 한장정리
[기술사토픽] AI 윤리 & 거버넌스 완벽 정리 - 한장정리
AI 윤리 원칙, 설명가능AI(XAI), AI 편향성, EU AI Act, 국내 AI 정책까지 기술사 빈출 주제를 완벽 정리합니다.
Ⅰ.AI 윤리 원칙
개념: AI 윤리는 AI 시스템의 개발·배포·사용 과정에서 사회적 가치와 인간의 권리를 보호하기 위한 원칙 체계입니다.
| 주요 기관 | AI 윤리 핵심 원칙 |
|---|---|
| OECD | 투명성·공정성·견고성·책임성·포용성 |
| UNESCO | 인권·존엄성·환경 지속가능성·다양성·평화 |
| EU HLEG | 인간 주도·기술적 견고성·프라이버시·투명성·공정성·사회적 복지·책임 |
| 한국 정부 | 인간 중심·투명성·안전·공정성·프라이버시·연대·책임성 |
나. AI 편향성(Bias) 유형
| 편향 유형 | 원인 | 예시 |
|---|---|---|
| 데이터 편향 | 편향된 훈련 데이터 | 채용 AI가 특정 인종 불리하게 판단 |
| 알고리즘 편향 | 모델 설계 문제 | 얼굴 인식 유색인종 정확도 낮음 |
| 배포 편향 | 사용 맥락 불일치 | 의료 AI를 다른 인구에 적용 |
| 피드백 루프 | 편향된 결과가 재학습에 사용 | 추천 시스템의 필터 버블 |
Ⅱ.설명가능 AI & 규제
가. XAI (설명가능 AI)
| 기법 | 설명 | 적합 모델 |
|---|---|---|
| LIME | 국소 근사 모델로 개별 예측 설명 | 블랙박스 전체 |
| SHAP | 게임이론 기반 특성 기여도 측정 | 블랙박스 전체 |
| GRAD-CAM | CNN 특성 맵으로 예측 근거 시각화 | CNN |
| Attention 시각화 | Transformer 어텐션 가중치 시각화 | Transformer |
| 결정 트리 대리 | 복잡 모델을 결정트리로 근사 설명 | 블랙박스 전체 |
나. EU AI Act (세계 최초 AI 규제법)
| 위험 등급 | 대상 | 규제 수준 |
|---|---|---|
| 허용 불가 | 사회적 점수제·실시간 생체인식 공공감시 | 전면 금지 |
| 고위험 | 의료·교육·채용·법집행 | 사전 적합성 평가 의무 |
| 제한된 위험 | 챗봇·딥페이크 | 투명성 의무 (AI임을 고지) |
| 최소 위험 | 스팸 필터·AI 게임 | 규제 없음 (자율 규범) |
시험 포인트
XAI 핵심: SHAP = 특성별 기여도를 게임이론으로 공정하게 분배.
EU AI Act: 위험 기반 접근법. 고위험 AI는 인간 감독·투명성·견고성 요구.
Ⅲ.결론
결론
AI 윤리와 거버넌스는 기술적 탁월성과 사회적 신뢰의 균형을 위한 필수 요소입니다.
향후 AI 감사·AI 책임성 법제화·알고리즘 영향평가가 의무화될 것입니다.
"AI가 강력할수록 책임도 커진다. 기술을 만드는 것만큼 올바르게 쓰는 것이 중요하다."
블로그: 기술사 학습노트 · imt-log.tistory.com
'AI빅데이터' 카테고리의 다른 글
| MLOps AI 파이프라인 구축 개념 정리 (0) | 2026.03.25 |
|---|---|
| 지식 그래프 온톨로지 구조와 활용 정리 (0) | 2026.03.25 |
| 딥러닝 아키텍처 종류와 구조 완벽 정리 (0) | 2026.03.24 |
| 디지털 출처 검증 프로비넌스 개념 정리 (0) | 2026.03.24 |
| 딥페이크 탐지 기술과 C2PA 표준 정리 (0) | 2026.03.24 |