작성일 : 20-01-15 16:36
[일반] 칼럼 | '은밀하게 거대하게...' 사람의 됨됨이를 AI가 판단 중?
 글쓴이 : happy
조회 : 12  

칼럼 | '은밀하게 거대하게...' 사람의 됨됨이를 AI가 판단 중?

AI-기반 소셜 미디어 모니터링이 당신의 취직, 입학, 부동산 대여를 비롯한 각종 사회 활동에 큰 영향을 끼치고 있는지도 모른다. 당신이 알지도 못한 채 말이다. 

에어비앤비(AirBnB)는 해변의 별장을 임대해 주기 전에 임대인이 ‘꼼수에 능한’ 성격(Machiavellian personality)인지 파악하고 싶어한다. 이 기업은 사용자의 페이스북, 트위터, 인스타그램 게시물을 기반으로, 집을 임대해 줄만큼 신뢰할 수 있는지 판단하기 위해 특정 소프트웨어를 사용하고 있을 수 있다. 

즉 소셜 네트워크를 파헤쳐 알고리즘을 실행하고 임대 여부에 대한 판단을 내리는 것이다. 이 프로세스가 적용되는 사람들은 이 과정에 대해 전혀 알지 못하며 이에 대한 이의제기 과정도 당연히 없다. 

에어비앤비는 실제로 잠재 고객이 임대한 집을 망가뜨릴 위험이 있는지 판단하기 위해 소셜 미디어 활동을 분석하여 ‘성격’에 등급을 매기도록 고안된 기술에 대한 특허를 보유하고 있다.

이 기술의 최종 결과물은 모든 에어비앤비 게스트 고객에게 ‘신뢰성 점수’를 부여하는 것이다. 소셜 미디어 활동뿐 아니라 블로그 게시물과 법률 기록 등 온라인에서 찾을 수 있는 다른 데이터도 활용하는 것으로 알려져 있다.

이 기술은 에어비앤비가 3년 전 인수한 트룰리(Trooly)가 개발했다. 트룰리는 ‘신뢰할 수 있는 관계와 상호작용을 예측’하기 위해 고안된 AI 기반 도구를 개발했으며, 소셜 미디어를 데이터 소스의 하나로 활용한다.

이 소프트웨어는 소프트웨어가 확인한 ‘성격 특성’에 기초하여 점수를 매긴다. 양심, 개방성, 외향성, 우호성을 비롯해 기묘한 특성(‘나르시시즘’와 ‘마키아벨리즘’ 등)이 여기에 포함된다. (흥미롭게도 해당 소프트웨어는 소송 진행 여부도 확인한다. 이를 통해 당장 또는 추후에 소송을 당할 가능성이 높다는 예측에 기초하여 고객을 가려 받을 수 있는 셈이다.)

에어비앤비는 해당 소프트웨어를 사용하고 있는지 여부를 밝히지 않았다. 이 소식을 접하고 놀라거나 불쾌했는가? 애석하게도 소셜 미디어 활동에 적용된 AI를 사용하여 고객, 시민, 직원, 학생 등 사람들을 평가하는 이러한 활동은  빠르게 증가하고 있는 것이 현실이다. 
 
ⓒ Image Credit : Getty Images Bank

에어비앤비만이 소셜 미디어를 스캔하여 성격을 판단하거나 행동을 예측하는 것은 아니다. 미국 국토안보부, 고용주, 학군, 경찰, CIA, 보험사 등도 그렇게 하고 있다. 일각에서는 전체 대학 입학사정관 중 절반이 AI 기반 소셜 모니터링 도구를 지원자 선발 과정의 일환으로 활용하고 있다고 주장하기도 한다. 

HR부서와 채용 관리자들도 점차 채용 전에 AI 소셜 모니터링을 활용하고 있다. 또 미국 정부기관 중 비밀 정보 사용 허가가 필요한 사람들을 고용하는 곳들도 소셜 미디어 모니터링을 통해 신뢰할 수 있는 직원을 확인하고 있는 것으로 전해진다.

이미 사람들이 미국에 입국할 때 미 관세국경보호청(Customs and Border Protection, CBP)이 조사하는 스마트폰의 수가 매년 빠르게 증가하고 있다. 이 조사에는 소셜 미디어 계정이 포함되며 나중에 AI를 사용하여 모니터링 및 분석할 수 있다.

그리고 학교들도 점차 학생들의 소셜 미디어 활동을 모니터링하고 있을 뿐 아니라 일부 주에서는 이를 법률로 규정하고 있다.

즉 AI 기반 소셜 미디어 모니터링은 확산추세다. 거의 모든 조직들이 여기에 편승하려는 양상이다. 그런데 몇몇 문제점이 있다.

AI 기반 소셜 미디어 모니터링은 그다지 스마트하지 않다
다양한 조직들이 수 년 동안 소셜 미디어 모니터링을 시도하고 있었다. 이러한 가운데 최근 AI 기반 모니터링 도구들이 생겨났다. 이런 도구들은 지능, 사회적 책임, 재정적 책임, 법률 준수와 책임감 등의 성격 특성을 찾는다.

적용된 AI가 효과가 발휘하는지 여부는 문제가 아니다. 분명 AI는 제 몫을 한다. 문제는 소셜 미디어를 통해 사용자에 대한 진실이 드러나는지 여부이다. 필자는 데이터의 품질이 의심스럽다.

예를 들어, 누군가의 인스타그램 계정을 스캔하면 ‘매우 부자이고 세계를 여행하면서 샴페인과 캐비어를 즐기고 있는 인물’처럼 보일 수 있다. 사실은 호텔방과 공짜 식사를 제공받아 홍보용 사진을 촬영하는 인플루언서가 되고 싶어하는 무일푼의 사람일 수 있다. 어떤 사람들은 소셜 미디어를 이용해 의도적으로 자신에 대한 가짜 이미지를 만들어 낸다.

트위터 계정에서는 정직하고 건설적인 생산적인 사회 구성원으로 보일 수 있지만 익명의 부계정에서는 세상의 멸망만을 원하는 소시오패스적 트롤(Troll) 활동을 벌이는 사람일지도 모른다. 많은 이들이 자신의 성격의 다양한 측면에 대해 여러 개의 소셜 미디어 계정을 보유한다. 그리고 그 중 일부는 익명이다.

한 계정이 평범하지 않은 유머 감각으로 도배되어 있다면 모니터링 도구가 신뢰할 수 없는 성격으로 결론 내릴 수 있지만, 기계가 유머나 역설 감각을 이해 못하는 것일 수도 있다. 어쩌면 AI 도구의 개발자 자신도 성격에 관해 제대로 이해하지 못할 수 있다.

예를 들어, 온라인에서 비속어를 사용하면 윤리성 또는 도덕률의 부재를 나타낸다는 가정 하에 그 사람의 신뢰성 점수가 깎일 수 있다. 하지만 최근 연구에 따르면 그 반대이다. 입이 험한 사람들이 일반적으로 직업상 더욱 신뢰할 만할 뿐 아니라 더 스마트하고 정직하며 능력이 뛰어날 수 있다. 실리콘 밸리의 소프트웨어 기업들이 인간의 성격의 미묘함과 복잡성에 대해 제대로 알고 있다고 신뢰할 수 있을까?

그리고 어떤 사람들은 여러 소셜 미디어 사이트를 강박적으로 끊임없이 사용한다. 소셜 미디어를 절대로 사용하지 않는 사람도 있다. 대부분은 중간 즈음에 위치한다.

세대적 차이도 있다. 젊은 사람들은 통계적으로 공개적인 게시물을 작성할 가능성이 낮으며 개인 메시지 및 소규모 사회적 상호작용을 선호한다. AI 기반 소셜 미디어 모니터링이 연령별 변인을 제대로 반영하고 있을까? 

여성은 남성보다 소셜 미디어에 개인적인 정보(자신에 관한 정보)를 게시할 가능성이 높지만 남성은 여성보다 비인격적인 정보를 게시할 가능성이 높다. 개인사에 관한 게시물이 성격을 좀더 드러낼 수 있다는 가정이 가능하다. 하지만 AI 기반 소셜 미디어 모니터링 알고리즘이 성별 차이는 제대로 감안할까?

무엇보다도 이런 중대한 감시 환경에 들어가기 전에 이런 질문을 묻는 사람이 있기나 할까?

에어비앤비 같은 기업들은 현실 문제를 해결하기 위해 시도하고 있다. 에어비앤비의 경우 기본적으로 중계 서비스이다. 그리고 품질 확보가 관건이다. 어떻게 한 사용자가 다른 사용자에게 끼치는 피해를 최소화하고 있을까?

잘 생각해 보자. 지난 40년 동안 기술 업계는 늘 이용할 수 있게 된 ‘마법의 픽시 더스트’(Pixie Dust)를 과대 선전했다. 지금은 AI가 그렇다. 이제 AI가 마법처럼 현실 문제를 풀어주는 해결책이라고 결론지을까 우려된다. 쉽게 소셜 네트워크를 파헤쳐 알고리즘을 실행하고 결과를 얻는다. 시스템이 입학과 채용을 금지할 사람, 보안 정보 사용 허가를 철회할 사람, 에어비앤비에서 금지할 사람에 관해 간단히 결론짓는 것이다.

이 프로세스가 적용되는 사람들은 이 과정에 대해 전혀 알지 못하며 이에 대한 이의제기 과정도 없다. AI가 제대로 된 사람을 거부했는가? 그걸 알 수 있는 사람이 있을까? AI가 ‘신뢰할 만하다’고 판단한 사람들 중 일부는 어떤 식으로든 시스템을 속이지 않았을까? 그걸 알 수 있는 사람이 있을까?

인터넷에서 소셜 미디어 모니터링에 관해 찾아보면 ‘온라인 게시물에 주의’하라는 조언이 많이 보일 것이다. 합리적인 조언처럼 들리지만 그 조언이 어떤 의미인지 진지하게 생각해 보면 달라질 것이다. 정말로 해고, 채용 금지, 입학 거부되어야 할 사람이라면 스마트하게 소셜 미디어 활동을 속여야 한다는 이야기다.

소셜 미디어 모니터링의 범위에 대한 정보가 확산되면서 AI를 속이고 가짜 정보를 제공하여 기계가 신뢰할 수 있다고 판단하게 만드는 활동이 보편화될 것이다.

좀 더 솔직하게 이야기해 보자. 정부기관부터 기업과 온갖 실리콘 밸리 기술 기업들까지 다양한 종류의 조직들이 AI 기반 소셜 미디어 모니터링 추세에 편승하고 있다. 이런 도구에 특화된 수십 개의 기업들이 등장하고 있다. 이런 활동이 점차 확산되고 있다.

그리고 대중이 이런 경향에 관해 알게 되면 소셜 미디어 활동을 바꾸고 적절한 버튼을 눌러 ‘신뢰성 점수’를 유지하며 시스템을 해킹하여 모든 것을 무의미하게 쓸모 없게 만들어 버릴 수밖에 없다.

이제 AI 기반 소셜 미디어 모니터링에 관심을 가질 때이다
지식이 있고 기술에 우호적인 대중은 일반적으로 조심성이 있다. 또 광범위한 연락처 데이터베이스 추출 활동 등 허락 없이 모든 사람의 개인 정보에 접근하는 등 ‘감시 자본주의’를 경멸한다. 그러나 이런 종류의 일상 모니터링에 대한 실질적이고 중대한 ‘피해’를 확인하기 어려운 것도 사실이다.

하지만 잠재적인 ‘피해’는 결코 간과할 만한 수준이 아니다. 일자리를 잃고 입학을 거부당하며 보험료가 오르고 에어비앤비에서 해변 별장을 임대하지 못하게 될 수 있다.

AI 기반의 소셜 모니터링에 대한 담론이 늘어나야 할 이유다. 필자의 의도는 ‘신뢰할 수 없는 사람’이 시스템을 속이고 기계가 신뢰할 수 있도록 만드는 ‘요령’을 제공하는 것이 아니다. 시스템을 속일 수 있다는 이야기를 하고 싶은 것, 그리고 AI 기반 소셜 미디어 모니터링 자체를 신뢰할 수 없다는 것이다. 

* Mike Elgan은 기술 및 기술 문화에 대해 저술하는 전문 기고가다. ciokr@idg.co.kr