세상이 무어라 형언할 수 없는 그럴싸한 ‘느낌’으로 가득한 것 같다. 공익광고는 가까이 다가서 보면 생성된 이미지인 ‘듯 보인다.’ 외신 보도를 소개하는 언론사는 인공지능 번역기를 돌린 '듯 보인다.' 매끄럽게 이어지는 고전 강독 강의는 인공지능의 도움을 받은 ‘듯 보인다.’ 이를 비난할 수 있는가 고민하던 차에, 강사는 그럴싸한 목소리로 고전의 원문에는 존재하지도 않는 내용을 읊는다. 인공지능의 환각(hallucination)을 표정 변화도 없이 또박또박 소리 내어 전하는 그를 보며 두려움을 느낀 나는 ‘올드 스쿨’인가. 학문 공동체가 생성형 인공지능을 어떻게 쓰고 있는지 인터뷰한 연구자에게서 들은 이야기다. 어떤 젊은 철학자는 생성형 인공지능이 자신의 철학적 사유의 일부라고 말했다. 자신의 ‘철학함’은 인공지능과 분리될 수 없다는 것이다. 궁금해진 연구자는 물었다. “그렇다면 당신은 전기가 끊기면 철학을 못 하나요?” 젊은 철학자는 “그렇다”고 답했다. 읽고 산책하다가 나무등걸에 앉아 사색하는 것이 철학이라고 생각한다면, 당신은 나만큼이나 ‘올드 스쿨’이다. 마음은 한껏 확장되어 나의 육체를 넘어 주변 환경을 활용한다. 인간의 인지 활동은 종이, 연필,
정치는 진실을 추구하지 않는다. 정치는 허위와 비밀을 ‘정당하게’ 활용하며, 이로써 권력이 목적으로 했던 ‘더욱 고귀한 바’를 달성하면 그만이다. 진실은 취사 선택된다. 역사에는 거짓 선동을 반복함으로써 권력을 쟁취, 유지, 확대한 정치적 사례가 숱하게 많다. 선동은 얼마나 매력적인가. 허위 정보, 고정관념, 폭력적 환상, 공포가 반복되며 정교화될 때 우리는 처음에는 거짓이라고 인식했던 메시지조차 진실로 받아들이기 시작한다. 우리는 진실에 관심이 없다. 진실은 어렵고 드물다. 그러니 많은 경우 심지어 민주적 국가에서도, 권력자가 진실을 추구할 유인은 없다. 권력자에게는 진실을 이야기하는 것보다 더 쉬운 수단이 얼마든지 있다. 권력이 진실 추구를 표방한다면 어떨까. 이는 성공하기 힘든 목표인데, 진실성을 판단하는 주체의 자율성을 통제하려는 열망을 통제하기 어렵기 때문이다. 진실과 허위를 판단하는 권력 앞에 진실이 제 목소리를 낼 수 있는가. “무엇이 진실인가?”라는 물음에 권력은 필요에 따라 다른 답을 내놓기 십상이다. 언론은 진실 추구를 목적으로 한다. 이 또한 녹록하지 않다. 2016년 트럼프 선거본부를 이끌었고, 트럼프 정권의 백악관 수석 전략가를 지냈으
2024년의 겨울, 대한민국 국민들은 내란 소요가 일어난 현장에서 또는 미디어를 통해 역사를 보았다. SNS와 유튜브 생중계를 통해 계엄령이라는 이해하기 어려운 상황을 이해하려 부단히 노력했다. 잠 못 이루던 그날 밤, 미디어는 전 국민을 역사의 기록자로 만들었다. 미디어가 시민에게 미치는 영향을 탐구하는 미디어 연구자라면 그날의 현상에 관해 이런 질문들을 던질 것이다. 계엄령 관련 정보를 접하기 위해 이용한 미디어가 이용자의 정치 태도와 참여에 영향을 미치지 않았을까? 미디어 연구는 미디어가 일반 시민의 인식과 태도에 영향을 미치며, 정치 엘리트가 전략적으로 미디어를 활용할 것이라 전제한다. 그러한 까닭에 정치 엘리트는 시민이 접하는 미디어와 정보를 통제한다. 언론 보도를 정정하려 하고, 심의를 통해 특정 정보에 대한 접근을 차단한다. 물론, 민주주의를 위해서다. 하지만 이번 사태를 통해 우리는 그간 주목하지 않았던 중요한 문제를 발견하였다. 당혹스럽게도 대통령과 그 주변 인물들은 계엄령이 그들이 내릴 수 있는 가장 정의롭고 ‘합리적’인 결정이라 생각한 것으로 보인다. 이들의 ‘합리성’은 도대체 어떻게 구성된 것인가? 국민에게 총구를 겨누는 극단적 결정을
허위정보가 아니라면 머스크는 차기 트럼프 정부에서 정부효율부(Department of Government Efficiency, DOGE)의 수장이 된다. 트럼프 대통령 당선인은 머스크가 비벡 라마스와니와 함께 과도한 정부 지출은 줄이고, 비대한 정부 조직은 구조조정 하게 될 것이라고 밝혔다. 효율성에 대한 머스크의 사랑은 널리 알려져 있다. X가 아직 트위터였을 때, 트위터의 지출 내역이 정리된 스프레드시트를 앞에 두고 직원들은 모든 항목 하나하나를 머스크에게 설명했다. 마음에 들지 않은 예산 지출은 모두 삭감했고, 그의 결정에 반발하는 직원은 예산과 함께 해고당했다. 그는 예산을 ‘제로 베이스(zero base)’, 즉 원점에서 재검토했다. 예산을 덜 깎느니 많이 깎는 편을 택했다. 예산 삭감으로 문제가 생기더라도 이후 대응하면 된다는 것이다. 그는 직원을 절반으로 줄였고, 외부 협력사에게 지불하기로 약속된 대금도 치르지 않았다. 트위터의 사회 공헌 프로젝트도 어려움을 겪었다. 서버 비용을 줄이라며 새크라멘토 서버 연결을 끊어버렸다. 갑작스러운 서비스 중단이 잇따랐다. 정부효율부가 정부 예산을 원점 재검토하는 것 자체가 문제가 되지는 않는다. 단, 머스크는
2017년, 레딧 이용자 '딥페이크스'는 기존 성착취물에 여성 연예인의 얼굴을 합성하였다. 이른바 딥페이크의 등장이다. 2023년 12월, 수십억 개 이미지로 구성되어 생성 AI 학습에 활용되어 온 공개 데이터셋 LAION-5B에 다수의 아동 성착취물이 포함되어 있다는 사실이 밝혀졌다. 2024년 현재, 대한민국은 형용할 수 없을 만큼 잔혹한 딥페이크 성착취물 피해 사례가 매일같이 보도되고 있다. 이미지 생성 AI는 심지어 이용자의 의도와 무관하게 성적 묘사를 하기에 이르렀다. 증명사진을 확장하기 위해 이미지 생성 AI 모델을 썼더니 가슴 아래가 나신으로 생성되었다거나, 셔츠 단추를 교묘히 풀어 헤친 상태로 묘사되었다는 사례들은 지금의 생성형 AI 기술이 그 자체만으로도 문제라는 사실을 여실히 보여준다. 근대문명은 과학적 지식을 기초로, 특정 목적을 위해 기술을 취사선택하고 이에 따른 잠재적 위험을 감수한다. 과학은 사회가 기술을 도입하는 과정에서 겪을 수 있는 위험을 충분히 밝히고 이를 합리적으로 관리할 것을 약속한다. 과학 공동체의 예리한 감각기관이 기술의 위험을 간파하고 이에 대응할 관리 방법을 제시할 것으로 기대된다. 하지만 과학 공동체는 딥페이크 기
땡볕이 내리쬐는 한낮의 버스 정류장에 다섯 살쯤 된 어린이가 두 손 포개 기도하고 있었다. 어린이는 동생 그리고 어머니와 외출 중이었다. 어머니는 두 아들과 한여름 도로 위를 방황하고 있었는데, 어린 둘째는 더위와 피로에 지쳤는지 유아차에서 노곤히 자고 있었다. 어머니는 택시를 잡으려 시도했다. 하지만 택시는 흔드는 손에 멀찍이서 다가오다 이내 가속 페달을 밟아 신속히 그 자리에서 도망쳤다. 어머니는 유아차가 있으면 택시를 잡을 수가 없다고 한탄했다. 아스팔트 도로가 지글지글 끓었다. 그렇게 택시를 몇 대 보냈다. 정말이지 지독한 여름이었다. 한탄을 외면할 수 없었던 큰아들은 어머니를 위로하고 싶었다. “그럼, 버스 타고 가자 엄마.” 어머니는 유아차가 있으면 버스 기사분들도 좋아하지 않는다고 답했다. 하는 수 없이 집까지 걸어가 볼까 하며 발걸음을 떼보려 했지만, 엄두가 나지 않는다. 다섯 살 어린이의 기도는 이때 시작되었다. “우리 버스 탈 수 있게 해달라고 기도하자.” 어머니는 그 모습이 귀여워 미풍이라도 분 듯 웃으며 힘을 내어 집으로 걸어가자 하였다. 어린이의 기도를 들었을 신은 (그가 누구이든) 분명 인간 세상을 가엾게 여겼을 것이다. 우습게도 나
끝나지 않는 전쟁 소식으로 인류애가 위험해질 때마다 일부러 기억해 내는 일화가 있다. 뤼드허르 브레흐만이 그의 책 '휴먼카인드'에서 소개한 미국 남북전쟁 이야기다. 게티즈버그 전장에서 회수된 2만 7000여 정의 머스킷 총을 조사한 결과 90퍼센트가 여전히 장전되어 있었다. 약 1만 2000여 정의 소총이 이중 장전되어 있었고, 그중 절반은 삼중 장전되어 있었다. 머스킷 총은 한 번만 장전할 수 있도록 설계되었다. 군사들은 모두 충분한 군사훈련을 받은 상태였다. 왜 이런 일이 벌어졌을까. 오랜 연구를 통해 역사학자들은 병사들이 총을 쏘지 않기 위해 총을 장전했음을 알게 되었다. 병사들은 적군에게 방아쇠를 당기지 않을 변명거리가 필요했다. 머스킷 총은 장전하는 데 복잡한 절차가 필요했으므로, 장전에 시간을 허비해도 그리 이상하지 않았다. 그렇게 머스킷 총은 이중, 삼중, 심지어는 23발의 총알이 장전되었다. 병사들은 장전한 총을 재차 장전했다. 그러나 브레흐만은 남북전쟁의 일면만을 소개했다. 남북전쟁이 시작되자 리처드 개틀링은 현대 기관총의 전신인 개틀링 기관총을 발명했다. 장전 과정이 자동화되었다. 개틀링 기관총은 분당 300발 이상을 발사했다. 머스킷 총은
국정을 인공지능이 운영하면 어떨까. 고백하건대 나 또한 그런 생각을 해보았다. 일을 이렇게 처리할 거라면 차라리 인공지능이 하는 게 낫지 않을까. 규정만 따르면 될 문제를 혈연, 지연, 학연 등 인연과 사정을 따져야 하니, 이쯤 되면 ‘사람이 일’인가 싶다. 교통사고 보험금 지급 담당자라고 상상해보자. 피도 눈물도 없는 인공지능은 이런 업무쯤이야 수 초 내에 뚝딱 처리할 거다. 인공지능이 규정에 따라 지급되어야 할 보험금을 ‘알아서 잘’ 결정한다. 블랙박스 영상만 업로드하면 계산은 뚝딱이다. 인간 담당자는 민원인에게 ‘딱 센스있게’ 말한다. “아, 인공지능 저 녀석이 보험금 지급이 안 된다고 하네요. 시스템이 이래요. 저라고 어쩌겠습니까.” 그러면 고객은 돈 한 푼 못 받고 풀이 죽어서 돌아가는 거다. 상상으로는 통쾌해도 현실에서는 비극일 것인데, 고객에게 의사결정에 대한 책임을 물을 수 있는 아무런 권한도 부여되지 않았기 때문이다. 조직의 기능은 일을 효율적으로 처리해내는 것에 그치지 않는다. 조직은 사회의 요구에 반응할 윤리적, 법적 책임 또한 가진다. 사람들의 선호는 상충되거나 시시각각 변화한다. 그래서 조직은 상시적인 학습과 조정에 자원을 할애한다.
세상에서 제일 재미있다는 게 싸움 구경이다. 하지만 이건 어디까지나 내가 피해자가 아닐 때 이야기다. 지난 13일, 공정거래위원회와 쿠팡 간 싸움이 본격화되었다. 공정위와 쿠팡이 주거니 받거니 하는 ‘대화’를 지켜보자니 여간 껄끄럽지 않다. 그도 그럴 게 국내 유통업계 1위 사업자로 올라선 쿠팡은 이미 3천만 명 이상의 국내 이용자를 보유하고 있다지 않은가. 공정위와 쿠팡의 오랜 다툼의 역사는 다시 한번, 역대급의 과징금과 함께 불이 붙었다. 공정거래위원회는 쿠팡에 잠정 1400억 원의 과징금을 부과했다. 공정위가 유통업체에 부과한 역대 과징금 중 가장 큰 규모라고 한다. 공정위는 쿠팡이 자사 상품을 상단에 고정 노출하고, 임직원을 동원하여 구매 후기를 작성하도록 하는 등 불공정행위를 해왔다고 보았다. 쿠팡에 입점한 일반 사업자와의 공정한 경쟁과 소비자 후생을 저해했다는 것이다. 제재 결정을 발표하는 44쪽에 걸친 보도자료는 공정위가 고려한 근거들, 즉 쿠팡의 내부 자료와 소비자들의 구매 후기, 입점 사업자의 문의와 쿠팡의 답변 등을 정리하여 보여준다. 일례로, 쿠팡은 그간 임직원으로 구성된 ‘체험단’을 동원하여 자사 상품에 우호적인 구매 후기를 남겨왔다.
인간은 농담에 약하다. 농담은 마음을 사로잡는다. 상대방이 고심하여 던진 농담에 당신이 웃었다면, 상대방은 당신을 지원군으로 얻은 셈이다. 농담은 또한 상대방의 속내를 들여다볼 좋은 창이기도 하다. 어떤 농담을 구사하고, 무엇에 웃는지를 보면 상대방의 진솔함이 드러난다. 그러니 상대방과 함께 웃어 동료가 되기 전에 그 속내부터 꿰뚫어 보자. 그는 왜 이런 농담을 했을까? 오픈AI가 GPT-4o(omni, 옴니) 음성 챗봇의 데모 영상을 발표했고, 많은 이들이 자연스러운 대화에 놀랐다. 빠르게 응답하고, 응답을 중간에 끊을 수도 있고, 여러 사람의 목소리를 구분하여 인식한다. GPT-4o의 성능은 그것이 ‘구사하는’ 유머를 통해 한층 자연스러워진다. 대화 곳곳에 섞인 그것의 웃음소리는 생동감을 더한다. “내가 너를 웃겨보마” 하며 던지는 썰렁한 농담이 아니라, 이용자를 배려하는 듯한 부드러운 농담에 손쓸 도리 없이 마음을 홀라당 빼앗겨 버렸다. 오픈AI는 자신들의 기술에 농담으로 해자(垓子)를 둘렀고, 성공한 것처럼 보였다. 하지만 GPT-4o의 농담에 웃음으로 화답하기는 이르다. 오픈AI의 새로운 음성 챗봇은 왜 우리에게 ‘그녀’ 목소리로 농담을 건네는가?