* 이 글은 하이퍼 레터 12.1(2026.01.07발행)에 게재되었습니다.

인공지능이 인간의 삶 깊숙이 들어오면서 기술의 효용만큼이나 책임의 위치를 묻는 목소리가 커지고 있다. 특히 “AI가 문제를 일으켰을 때 누가 책임지는가”라는 질문은 더 이상 가상적 논쟁이 아니라, 실제 법적·윤리적 판단을 요구하는 현실의 쟁점이 되었다. 그러나 이 질문은 종종 지나치게 단순한 방식으로 던져진다. 마치 모든 인공지능이 동일한 방식으로 작동하고, 동일한 책임 구조 안에 놓여 있는 것처럼 말이다. 하지만 AI는 하나의 단일한 존재가 아니다. 특히 창작에 사용되는 AI는 일반적인 서비스형 AI와는 전혀 다른 책임의 논리를 요구한다.
자율주행 자동차의 경우를 보자. 현재의 사회적 합의는 비교적 명확하다. 시스템 결함으로 사고가 발생했다면 그 책임은 이용자가 아닌 설계자나 제조사에 있다. 이용자는 이미 완성된 기술을 사용했을 뿐이며, 그 판단 과정이나 작동 원리에 개입할 여지는 거의 없기 때문이다. 이는 이미 완성품 도자기를 구매하는 상황과 닮아 있다. 도자기에 균열이 있거나 정상적인 사용 중 파손된다면, 그 책임은 소비자가 아니라 제작자에게 귀속되는 것이 상식적이다. 완성품을 판매한다는 것은 곧 그 결과물에 대한 책임을 함께 유통한다는 의미이기 때문이다.
그러나 창작용 AI는 이와 전혀 다른 위치에 서 있다. 창작형 AI는 우리에게 완성된 도자기를 건네지 않는다. 대신 도자기를 빚을 수 있는 점토와 도구를 제공한다. 어떤 재료를 쓸지, 어떤 형태를 만들지, 어디에서 멈출지는 철저히 인간의 선택에 달려 있다. 같은 점토와 같은 도구를 쥐고도 누군가는 예술품을 만들고, 누군가는 조악한 모방물을 만들며, 또 다른 누군가는 법과 윤리를 침해하는 결과물을 만들어 낼 수도 있다. 이때 결과물의 성격을 결정한 것은 점토가 아니라, 그것을 빚은 손이다.
이 지점에서 우리는 협업이라는 개념을 다시 바라볼 필요가 있다. 현대 사회에서 협업은 흔히 부담을 나누는 방식으로 이해되지만, 실제로 협업은 책임을 나누는 기술이 아니다. 오히려 협업이 고도화될수록 책임의 위치는 더욱 선명해져야 한다. 그렇지 않을 경우, 협업은 쉽게 “우리 모두가 함께했다”는 말 뒤에 숨는 방관자 효과의 은신처로 전락한다. AI와의 창작 협업 역시 마찬가지다. 실행(Task)의 번거로움과 반복 노동은 AI에게 위임할 수 있다. 자료를 정리하고, 문장을 생성하고, 가능성을 나열하는 일은 AI가 훌륭하게 수행한다. 그러나 그 결과를 채택할지, 수정할지, 폐기할지를 결정하는 책임(Accountability)은 끝내 인간에게 남는다.
AI는 방대한 데이터를 바탕으로 최적의 답을 제시할 수 있지만, 그 답이 필요한 이유와 맥락을 판단하지는 않는다. 질문을 던질 필요가 있었는지, 그 질문이 적절했는지, 그리고 그 답을 세상에 내놓아도 되는지는 AI가 아니라 인간의 판단 영역이다. 모든 창작의 마지막에는 언제나 최종 클릭이 존재하고, 그 클릭은 인간의 손끝에서 이루어진다. 결국 기술이 고도화되어 AI의 자율성이 커질수록, 인간은 실행의 영역에서는 한 발 물러나지만, 판단과 선택의 영역에서는 더 이상 도망칠 수 없는 위치에 놓인다.
창작자가 직접 모든 문장을 쓰지 않았다고 해서, 그 결과물이 창작자의 것이 아니게 되지는 않는다. 따라서 창작물이 저작권을 침해하거나 윤리적 문제를 담고 있다면 “AI가 그렇게 만들었다”라는 말은 면책 사유가 될 수 없다. 그 결과물을 자신의 이름 아래 두기로 결정하고, 공개하고, 유통하기로 선택한 주체는 인간이기 때문이다. AI 기업은 안전한 재료와 가이드를 제공할 의무가 있다. 점토 자체에 결함이 있거나 위험한 성분이 섞여 있다면 그 책임은 분명 기업에 있다. 그러나 그 재료로 어떤 형상을 빚어냈는지에 대한 윤리적·법적 책임까지 대신 질 수는 없다.
창작은 본래 자유를 얻는 대신, 그 결과에 대한 부담을 함께 짊어지는 행위다. AI는 창작의 속도를 높이고 접근성을 넓혔지만, 이 오래된 원칙을 폐기하지는 않았다. 오히려 창작자는 이전보다 더 빠르게, 더 자주, 더 쉽게 선택하는 위치에 서게 되었고, 그만큼 책임의 밀도는 더 높아졌다. 이제 우리는 질문을 바꿔야 한다. “AI가 잘못했는가?”가 아니라, “나는 이 점토를 가지고, 어떤 의도로 최종 클릭을 눌렀는가?”라고. 책임의 위치를 정확히 인식할 때에만 우리는 기술을 도구로 남길 수 있다. 그리고 그때에야 비로소 창작이라는 행위는, AI 시대에도 여전히 인간의 이름으로 성립할 수 있다.

글쓴이 김의정
한남대학교 국어국문창작학과 재학
취미 및 특기: 글쓰기, 정리하기, 양식 또는 표준화 하기
'칼럼' 카테고리의 다른 글
| 서사, 기술, 그리고 인간 : 디지털 시대의 새로운 창작 풍경 (1) | 2025.12.25 |
|---|---|
| 판타지, 꿈에서 깨어나 현실의 뼈대를 세우다 (0) | 2025.12.25 |
| <AI 시대의 문학: 훼손이 아닌 확장> 최수영 칼럼 (0) | 2025.09.12 |
| <우리는 왜 문학의 형식을 바꿔야만 하는가> 오신이 칼럼 (2) | 2025.07.08 |
| <말과 레이어> 한송연 칼럼 (2) | 2025.04.17 |