※ 2019년에 벌어졌으나 현재도 진행형임











네덜란드 세무서가 학습 기반 AI한테 예전 세무 데이터랑 국적 등 개인정보를 주고 분석 시켜서 부정 수급을 확인하게 했는데 분석 과정에서 생긴 오류로 2만 6000명의 피해자가 발생함.


종종 사법 불신으로 AI가 판사를 해야 한다는 얘기가 있는데 시시콜콜한 영역까지 법이 정해져 있으면 AI가 그걸 기반으로 판결을 하면 되지만 그렇지 않을 경우는 결국 같거나 비슷한 판례들을 분석해서 판단을 내릴 수 밖에 없는데 이게 판사들 마다 재량에 따라 판결한 경우도 많아서(대표적인 게 양형 사례) AI가 그 자료들로 분석을 내릴 경우 명확한 판단이 어려운데 AI 특성 상 답은 반드시 도출해야 하니까 위 네덜란드 세무서에서 쓴 AI보다 더 심각한 분석 오류가 발생할 가능성이 꽤 높음.


잘 모르겠다면 ChatGPT 등으로 잘 안 알려진 분야에 대해 질문해 보면 이해가 빨리 됨. AI는 내 질문에 계속 헛소리를 하고 나는 아니라고 하면서 여기 저기를 지적하며 학습 시키려고 해도 수정이 거의 불가능 함. 특히 사법부 AI는 판사를 대신하기 때문에 권위가 높고 독립성이 보장되기 때문에 피고인이나 원고인, 법조인이 AI의 판결이 잘못된 거라 해도 그걸 이해(학습)시킬 수가 없음.


수치 등이 오히려 명확한 세무서 AI도 당장 저 꼴인데, 사람의 유죄 유무와 형량을 결정하는 AI가 학습 오류로 엉뚱한 판단을 내린다? 이러면 레알 답이 안 나옴.