[테크홀릭]이석원 기자

인공지능이 아무리 뛰어나다고 해도 여전히 인간이 더 효과적으로 처리할 수 있는 일이 남아 있다. 아마존은 이런 일을 할 수 있도록 AMT(Amazon Mechanical Turk)라는 크라우드소싱 서비스를 제공 중이다. 그런데 대형 IT 기업이 이런 AMT 사용자를 머신러닝 지원에 활용하고 있다고 한다.

공식 사이트 설명에 따르면 AMT는 사진이나 동영상 개체 식별, 데이터 중복 제거, 음성 녹음 변환, 데이터 세부 사항 분석 등 진화하는 컴퓨팅 기술보다 여전히 인간이 더 효과적으로 해낼 수 있는 작업을 AMT에 등록되어 있는 터커(Turker)라고 불리는 사람들에게 할당, 신속하고 저렴한 비용으로 처리할 수 있도록 한다.

물론 이에 따라 터커에게 지불되는 비용 자체가 너무 낮다는 이유로 지난 2014년 우린 알고리즘이 아니라면서 베프 베조스에게 공개서한을 보낸 적도 있다.

이미 구글과 마이크로소프트, 아마존, 애플, IBM, 페이스북 같은 대형 IT 기업은 AMT나 동종 크라우드 소싱 업체인 크라우드플라워(CrowdFlower) 등을 통해 작업을 맡긴다. AMT의 경우에는 터커가 50만 명인데 이 중 75%는 미국인이며 15∼20%는 인도인이다. 미국인은 대부분 여성, 인도인은 대부분 남성이다. 또 이들은 1980∼1990년에 태어난 사람이 대부분이다.

터커는 앞서 설명했듯 아직 인간이 더 효과적으로 할 수 있는 작업에 초점을 맞춘다. 하지만 현재 이들이 하는 작업은 머신러닝 지원 같은 것이라고 한다. 테슬라모터스의 자동운전을 위한 컴퓨터 비전 시스템, 아마존의 음성인식 비서인 알렉사, 마이크로소프트의 음성인식 비서 코타나 등이 그것.

이들 기술은 카메라에 찍히고 있는 게 사람인지 혹은 표식인지, 음성으로 뭘 지시하고 있는지 등 컴퓨터가 인식하지 않으면 안 되지만 복잡한 내용을 다룬다. 따라서 카메라에 찍히고 있는 게 뭔지, 어떤 단어가 나온 것인지 등 해당 내용 하나하나에 태깅을 해서 인공지능을 훈련해나가야 한다. 이런 태그 작업을 터커가 하고 있는 것이다.

물론 데이터의 양도 방대하다. 구글의 경우 지난 9월 28일 발표한 유튜브-8M에는 800만 건에 달하는 영상, 9월 30일 발표한 오픈 이미지 데이터셋(Open Image Dataset)에선 900만 건에 달하는 사진이 포함되어 있으며 각각 태깅을 했다. 이미지넷에선 태깅 이미지 1400만 장을 공개한 바 있는데 이는 터커 5만 명이 2년에 걸쳐 10억 장 사진 후보를 처리한 결과다.

이런 태깅을 하다보면 결국 인간은 태깅을 하지 않아도 되는 것일까. 사우샘프턴대학 고팔 램처른(Gopal Ramchurn)은 아직까지 한계에는 도달하지 않았다면서 사진 한장한장에는 각각 어떤 맥락에서 이 사진이 찍혔는지 설명이 필요하기 때문에 여전히 인간에 의한 의존도는 계속된다고 말한다. 또 5000만 장에 이르는 사진을 태깅했다고 해도 정확하게 분류 가능한 이미지는 조금밖에 없다고 설명한다. 관련 내용은 이곳에서 확인할 수 있다.

저작권자 © 헬로디디 무단전재 및 재배포 금지