CAFE

[여시뉴스데스크]아마존 채용 AI는 왜 남성을 우대했나 [모두를 위한 AI]

작성자텐텐민트|작성시간21.10.24|조회수2,089 목록 댓글 6

 출처 : https://n.news.naver.com/article/469/0000635067



지난 칼럼에 이어 인공지능 윤리의 5대 문제 중 AI 편향성 문제 사례와 바람직한 해결 방안을 살펴보고자 한다. 2016년 미국 탐사보도매체 ‘프로퍼블리카’는 미국 내 많은 법원에서 사용 중인 AI 재판 지원시스템 컴파스(COMPAS)에 대한 기사를 보도했다.

컴파스는 피고인의 데이터를 종합하여 재범 가능성을 예측하는 인공지능인데, 프로퍼블리카의 보도에 따르면 컴파스를 통하여 미국 플로리다에서 체포된 범죄자 1만 명을 대상으로 재범가능성을 예측해보았더니 흑인의 재범 가능성이 백인보다 2배 이상 높게 나타났다는 것이다. 하지만 실제 현실에서는 흑인의 재범률이 백인보다 더 높지 않았다.

인공지능 컴파스는 왜 이런 잘못된 예측을 했을까? ‘MIT 테크놀로지 리뷰’에 따르면, 실제 사례에서 흑인 피고와 백인 피고와의 검거율 차이가 그 원인임을 밝혀냈다. 곧 실제 흑인 피고는 52%가 체포됐지만, 백인 피고는 39%만이 체포됐다는 것이다.

이 같은 결과는 인공지능은 죄가 없다는 것을 보여준다. 인공지능은 학습을 위해 제공받은 데이터들을 토대로 판단했을 뿐, 데이터 자체가 편향되어 있었기 때문이다. 오히려 컴파스 사례는 데이터의 편향도 결국 사회 구조와 사회 문화의 편향(?) 때문이라는 점을 시사하고 있다.



자세한 내용은 전문으로
AI가 습득하는 데이터들부터 차별, 편견의 결과일 수 있어서 AI도 마냥 공정한 건 아님..

다음검색
현재 게시글 추가 기능 열기

댓글

댓글 리스트
  • 작성자두껍아집사줘 | 작성시간 21.10.24 맞아… 기존 데이터로 학습하니까 차별이 더욱 견고해질수도 있다는? 내용을 본 것 같아.. 그 왜 흑인과 백인이 같은 걸 들고있어도 흑인이 가지고 있는 것을 총으로 인식했다는 것도 봤는데.. 앞으로 계속 고민해야하는 과제인 것 같아 ㅠ
  • 삭제된 댓글입니다.
  • 답댓글 작성자어쩔꺼늬어쩔꺼늬 | 작성시간 21.10.24 쾅쾅쳐야..
  • 작성자땅땅치킨 | 작성시간 21.10.24 우리나라도 ai면접때 남자가유리한걸로봤는데
  • 작성자텐텐민트 작성자 본인 여부 작성자 | 작성시간 21.10.24 기계는 죄가 없어..
댓글 전체보기
맨위로

카페 검색

카페 검색어 입력폼