로봇은 당신의 이력서를 어떻게 만들까요?

What will a robot make of your résumé? The bias problem with using AI in job recruitment

박윤석 VP 승인 2024.06.11 15:26 의견 0

인공 지능(AI) 혁명이 시작되어 채용을 포함하여 사람들의 직업 및 개인 생활의 거의 모든 측면으로 확산되고 있습니다.

아티스트들은 저작권 침해나 단순히 교체되는 것을 두려워하는 반면, 비즈니스와 경영진은 공급망 관리, 고객 서비스, 제품 개발 및 인적 자원(HR) 관리와 같은 다양한 영역에서 효율성을 높일 수 있는 가능성을 점점 더 인식하고 있습니다.

머지않아 모든 비즈니스 영역과 운영은 어떤 형태로든 AI를 채택해야 한다는 압박을 받게 될 것입니다. 그러나 AI의 본질과 그 프로세스 및 출력 이면의 데이터는 인간의 편견이 기술에 내재되어 있음을 의미합니다.

우리의 연구는 이력서 심사를 자동화하고 구직자의 화상 면접을 평가하기 위해 이미 AI를 널리 채택한 분야인 채용 및 고용에서 AI의 사용을 살펴보았습니다.

채용 분야의 AI는 인간의 편견을 없애고 의사 결정의 공정성과 일관성을 향상시킴으로써 채용 과정에서 더 큰 객관성과 효율성을 약속합니다.

그러나 우리의 연구에 따르면 AI는 미묘하게, 때로는 공공연하게 편견을 높일 수 있습니다. 그리고 HR 전문가의 참여는 이러한 영향을 완화하기보다는 악화시킬 수 있습니다. 이는 인간의 감독이 AI를 억제하고 조정할 수 있다는 우리의 믿음에 도전합니다.

인간의 편견 확대

채용에 AI를 사용하는 이유 중 하나는 보다 객관적이고 일관성 있기 때문이지만, 여러 연구에 따르면 실제로 AI가 편향될 가능성이 매우 높습니다. 이는 AI가 학습에 사용된 데이터 세트에서 학습하기 때문에 발생합니다. 데이터에 결함이 있으면 AI도 마찬가지입니다.

데이터의 편향은 AI를 지원하는 인간이 만든 알고리즘으로 인해 악화될 수 있으며, 이러한 알고리즘에는 종종 설계에 인간의 편향이 포함되어 있습니다.

22명의 HR 전문가와의 인터뷰를 통해 채용에 있어 흔히 나타나는 두 가지 편견, 즉 '고정관념 편향'과 '나와 비슷한 편견'을 확인했습니다.

고정관념 편향은 같은 성별의 후보자를 선호하는 것과 같이 특정 그룹에 대한 고정관념에 의해 결정이 영향을 받아 성 불평등으로 이어질 때 발생합니다.

"나와 비슷한" 편향은 채용 담당자가 자신과 비슷한 배경이나 관심사를 공유하는 지원자를 선호할 때 발생합니다.

채용 프로세스의 공정성에 큰 영향을 미칠 수 있는 이러한 편향은 과거 채용 데이터에 포함되어 AI 시스템을 훈련하는 데 사용됩니다. 이는 편향된 AI로 이어집니다.

따라서 과거의 고용 관행이 특정 인구 통계를 선호했다면 AI는 계속해서 그렇게 할 것입니다. 알고리즘이 다른 상관 관계의 정보에서 숨겨진 데이터를 기반으로 개인 정보를 추론할 수 있기 때문에 이러한 편향을 완화하는 것은 어렵습니다.

예를 들어, 남성과 여성의 군 복무 기간이 다른 국가에서 AI는 복무 기간에 따라 성별을 추론할 수 있습니다.

이러한 편견의 지속은 인간과 AI 기반 채용 프로세스 모두에서 공정성을 보장하기 위해 신중한 계획과 모니터링의 필요성을 강조합니다.

인간이 도울 수 있습니까?

HR 전문가뿐만 아니라 17명의 AI 개발자도 인터뷰했습니다. 우리는 채용 편향을 악화시키지 않고 완화할 수 있는 AI 채용 시스템을 개발할 수 있는 방법을 조사하고 싶었습니다.

인터뷰를 바탕으로 HR 전문가와 AI 프로그래머가 서로 정보를 교환하고 선입견에 의문을 제기하면서 데이터 세트를 조사하고 알고리즘을 개발하는 모델을 개발했습니다.

그러나 우리의 연구 결과에 따르면 이러한 모델을 구현하는 데 어려움이 있는 것은 HR 전문가와 AI 개발자 사이에 존재하는 교육적, 전문적, 인구통계학적 차이에 있습니다.

이러한 차이는 효과적인 의사 소통, 협력 및 서로를 이해하는 능력을 방해합니다. HR 전문가는 전통적으로 인력 관리 및 조직 행동에 대한 교육을 받은 반면, AI 개발자는 데이터 과학 및 기술에 능숙합니다.

이러한 서로 다른 배경은 함께 일할 때 오해와 불일치로 이어질 수 있습니다. 이는 자원이 제한되어 있고 전문 네트워크가 덜 다양하기 때문에 뉴질랜드와 같은 소규모 국가에서 특히 문제가 됩니다.

HR과 AI 연결

기업과 HR 전문가가 AI 기반 채용의 편향 문제를 해결하려면 몇 가지 변화가 필요합니다.

첫째, 정보 시스템 개발 및 AI에 중점을 둔 HR 전문가를 위한 체계적인 교육 프로그램의 구현이 중요합니다. 이 교육은 AI의 기초, AI 시스템의 편향 식별 및 이러한 편향을 완화하기 위한 전략을 다루어야 합니다.

또한 HR 전문가와 AI 개발자 간의 더 나은 협업을 촉진하는 것도 중요합니다. 기업은 HR 및 AI 전문가를 모두 포함하는 팀을 만들어야 합니다. 이는 커뮤니케이션 격차를 해소하고 노력을 더 잘 조정하는 데 도움이 될 수 있습니다.

또한 문화적으로 관련성 있는 데이터 세트를 개발하는 것은 AI 시스템의 편향을 줄이는 데 매우 중요합니다. HR 전문가와 AI 개발자는 AI 기반 채용 프로세스에 사용되는 데이터가 다양하고 다양한 인구 통계학적 그룹을 대표하는지 확인하기 위해 협력해야 합니다. 이는 보다 공정한 채용 관행을 만드는 데 도움이 될 것입니다.

마지막으로, 국가는 신뢰를 구축하고 공정성을 보장하는 데 도움이 될 수 있는 채용 시 AI 사용에 대한 지침과 윤리 기준이 필요합니다. 조직은 AI 기반 의사 결정 프로세스에서 투명성과 책임성을 촉진하는 정책을 구현해야 합니다.

이러한 조치를 취함으로써 HR 전문가와 AI 개발자 모두의 강점을 활용하는 보다 포괄적이고 공정한 채용 시스템을 만들 수 있습니다.

이상의 기사는 2024년 6월 10일 Phys.org에 게재된 “What will a robot make of your résumé? The bias problem with using AI in job recruitment”제목의 기사 내용을 편집하여 작성하였습니다.

* 원문정보 출처 : What will a robot make of your résumé? The bias problem with using AI in job recruitment (phys.org)

저작권자 ⓒ 창조아고라, 무단 전재 및 재배포 금지