이 글은 스케일AI와 라벨링 작업 뒷이야기를 나눔합니다.
AI의 이면: 보이지 않는 데이터 라벨러와 착취적 노동 생태계
고품질의 학습 데이터는 성능이 뛰어난 대규모 언어 모델(LLM)을 생성하는 핵심 요소이며, 이는 곧 사람의 손을 거친 라벨링된 데이터셋을 의미한다. LLM의 훈련 과정 중 지도 학습과 인간 피드백 기반 강화 학습(RLHF) 단계에서는 인간의 노동이 필수적이다. 라벨러들은 이미지나 텍스트 같은 원시 데이터에 정답을 붙임으로써 AI가 올바른 판단을 내리고 답변의 품질을 높이도록 돕는다. 하지만 이 거대한 기술의 뒤에는 전 세계에 흩어진 보이지 않는 노동자들의 희생이 존재한다.
글로벌 공급망과 미세 노동의 실체
AI 개발사들은 비용 절감을 위해 케냐, 인도, 필리핀 등 저임금 국가의 노동력을 활용하는 미세 노동(Microwork) 플랫폼에 라벨링 작업을 외주화한다. 이러한 플랫폼들은 노동자와 정식 고용 계약을 맺지 않는 인간 서비스(humans-as-a-service) 모델을 채택하고 있다. 노동자들은 시간당 2달러 미만의 임금을 받으면서도 살인, 학대, 아동 착취 등 트라우마를 유발할 수 있는 유해한 콘텐츠를 수 시간 동안 검토해야 하는 열악한 환경에 처해 있다. 이들은 수십억 달러 가치의 AI 시스템을 구축하는 핵심 동력이지만, 기업의 이익 공유에서는 철저히 배제된다.
투명성 결여와 알고리즘에 의한 관리
데이터 라벨링 생태계는 심각한 불투명성 문제를 안고 있다. Scale AI와 그 자회사인 Remotasks처럼 기업들은 복잡한 지배 구조를 통해 실제 고용주와 의뢰인(OpenAI, MS 등)의 정체를 숨긴다. 노동자들은 자신이 누구를 위해 일하는지도 모른 채 암호화된 프로젝트명 아래에서 단순 작업을 반복한다. 또한, 알고리즘 관리 시스템은 노동자의 일상과 생산성을 철저히 감시한다. 화장실 휴식조차 허용하지 않는 엄격한 타이머가 작동하며, 알고리즘이 산정하는 임금은 수요와 공급에 따라 실시간으로 변동되어 노동자의 소득 예측 가능성을 박탈한다.
불안정한 일자리와 기그 경제의 병폐
노동자들은 일감을 얻기 위해 밤낮없이 화면을 모니터링해야 하며, 알고리즘의 결정에 따라 예고 없이 계정이 정지되거나 일자리를 잃기도 한다. 무급으로 진행되는 장시간의 교육 과정과 테스트 역시 노동자에게 전가되는 부담이다. 최근 기업들이 비용 절감을 위해 더 저렴한 노동 시장으로 거점을 옮기면서 기존 지역 노동자들에게 임금을 지불하지 않고 철수하는 사례도 보고되고 있다. 이는 법적 보호가 취약한 기그 경제(Gig Economy)의 전형적인 착취 구조가 AI 산업에서 재현되고 있음을 보여준다.
자동화의 한계와 규제적 대응의 필요성
데이터 라벨링을 자동화하려는 시도가 이어지고 있으나, 여전히 최종 검수 단계에서는 인간의 판단이 필요하다. 자동화는 기업의 효율성을 높일 뿐 노동자의 권리나 처우 개선으로 이어지지 않는다. 다행히 유럽의 플랫폼 노동 지침(PWD)이나 국제노동기구(ILO)의 논의 등 규제적 노력이 시작되고 있다. AI 공급망의 가장 밑바닥에서 모델을 지탱하고 있는 미세 노동자들의 권리를 보호하고, 거대 기술 기업의 책임을 강화하는 정책적 대응이 시급한 시점이다. 이들이 겪는 착취와 학대를 멈추는 것이야말로 진정한 의미의 신뢰할 수 있는 AI 개발의 시작이다.
댓글 없음:
댓글 쓰기