현업에서 AI 도입하자고 난리인데... 사고 나면 책임은 누가 지나요?

03월 04일 | 조회수 46
H
Hamkke

최근 엔터프라이즈 기업들의 AI 프로젝트 아키텍처를 진단(Audit)하다 보면, 참 답답한 상황을 자주 봅니다. 사업부나 IT 부서에서는 "우리 AI 모델 성능이 95%다, 무조건 도입하자"고 밀어붙입니다. 그런데 막상 리스크/준법감시 부서에서 "그럼 나머지 5% 확률로 AI가 엉뚱한 고객에게 심사를 거절하거나 불량품을 통과시키면, 그 배상 책임은 오픈AI가 지나요, 아니면 우리 대표님이 지나요?"라고 물으면 아무도 대답을 못 합니다. AI의 '정확도'를 높이는 데는 수십억을 쓰면서, 정작 AI의 판단이 현실 행동으로 이어지기 직전에 브레이크를 거는 '통제 게이트(Control Layer)'와 '면책용 로그(Evidence)'를 설계해 둔 곳은 열에 하나도 안 되더군요. 현업에서 AI 거버넌스나 내부통제 고민하시는 분들께 묻고 싶습니다. 귀사의 AI 시스템은 판단 신뢰도(Confidence)가 떨어질 때, 자동으로 실행을 멈추고 담당자에게 결정을 넘기는 '안전장치'가 하드코딩이 아닌 정책 기반으로 잘 작동하고 있나요? 아니면 혹시, 아직도 부서 간 책임 떠넘기기 중이신가요? 현실적인 고충이나 해결 사례가 궁금합니다.

댓글 0
공감순
최신순
      등록된 댓글이 없습니다
      첫 댓글을 남겨주세요
추천글
대표전화 : 02-556-4202
06235 서울시 강남구 테헤란로 134, 5,6,9층
(역삼동, 포스코타워 역삼) (대표자:최재호, 송기홍)
사업자등록번호 : 211-88-81111
통신판매업 신고번호: 2016-서울강남-03104호
| 직업정보제공사업 신고번호: 서울강남 제2019-11호
| 유료직업소개사업 신고번호: 2020-3220237-14-5-00003
Copyright Remember & Company All rights reserved.