본문 바로가기

게임/게임 분석

백 번째 게임 분석 : AI 시대의 게이머들을 위한 안내서 - 2

AI에 대한 설명이 없으면 글이 이해가 될 것 같지 않아
1화에서는 너무 장황하게 AI에 대한 설명을 진행했습니다.

이번 2화에서는 본래의 목적에 따라
인터뷰를 진행한 내용을 정리해 보고,
그 내용에 따라 어떻게 게임 산업에 적용이 될지 정리해 보겠습니다.

인터뷰 내용을 정리한 만큼 PC 화면으로 보시는 걸 추천드립니다.

 

100회 특집 2화

부제 : AI 윤리에 관한 인터뷰, 그리고 게임 업계의  AI 윤리까지

 

전 화에서 말씀드렸다시피,
이번 화는 인터뷰 진행과 그 내용을 바탕으로

포스팅을 진행해 보겠습니다.

AI 윤리라는 생소한 부분부터,
이 시대를 살아가는 게이머 분들에게 전달드릴 내용까지
질문과 대답을 통해서 내용을 정리해 보겠습니다!

첫 질문이다 보니 "AI 윤리"라는 낯선 키워드에 대해 우선적으로 질문을 드렸는데,
가장 중요한 "윤리"라는 개념에 대해서 설명을 해 주셨습니다.

Q1 :
  AI 윤리라는 개념이 낯설다. 해당 개념에 대해서 조금 설명해 주시자면?

A1 : 
  윤리를 타인과 관계할 때 기대되는, 바른 방법이라고 생각해 보자.
  기술은 관계를 매개한다.

  공동체에 큰 영향을 미치는 기술이 등장하면 관계 방식이 변한다.
  AI 시대에 윤리 이슈가 부각되는 것은 이러한 이유다.

  공동체를 구성해 오던 관계 방식이 변했기 때문이다.
  인쇄 매체가 등장하고 저작권 개념이 등장하는가 하면, 디지털 기술 이후 개인정보 개념이 구체화된 것과 비슷하다.
  “이게 AI 시대의 윤리다!!!”하고 확립된 것은 없지만, 그렇다고 전에 없던 새로운 윤리가 등장하지는 않을 것이다.

  공동체가 익히 알고, 지켜오던 것들이 AI로 인해 취약해질 때,
  어떻게 하면 그 충격을 줄일 수 있을지를 고민하는 게 AI 윤리다.

  AI로 인해 저작권, 데이터 주권, 노동, 분배, 환경 등 다양한 이슈들이 이미 등장하고 있다.
  이 이슈들에 공동체가 어떻게 대응해야 할지 그 방향과 내용을 상상하는 작업이다.


 여기서 말하는 윤리라는 개념은 윤리학, 도덕과 같은 넓은 범위가 아닌,

"새로운 기술에 따른 새로운 약속"이라고 정리해 주셨습니다.

이번 AI에 대해서 "새로운 기술"이라 표현해 주신 게 가장 인상 깊었습니다.
기존에 있던 기술의 발전이 아닌, 완전히 새로운 기술로 보는 거죠.

새로운 기술이다 보니 "새로운 약속"이라는 단어도 떠올랐습니다.
아무런 약속이 없는 새로운 기술이다 보니, 당연히 약속도 필요하겠지요.

마치 인터넷이 새로 나오고, 점점 보급화됨에 따라
"네티켓"이라는 새롭게 지켜야 할 약속을 만든 것 같네요

정작 잘 안지키는 것 같지만 말이죠...?

저는 이 AI 윤리를 한마디로 비유할 수 있는 단어는
스포츠에서 말하는 프로 의식(Work ethic)이라 생각합니다.
그러고 보니 여기도 같은 윤리(ethic)이라는 표현을 쓰네요.

단순히 프로 의식은 경기에 임하는 태도만 지칭하는 게 아니라
선수들이 경기 외적으로 팬과 훈련에 임하는 태도까지 지칭합니다.
한마디로 프로 선수가 해당 스포츠를 대하는 "자세"를 통칭하는 거죠

AI 윤리의 기본 베이스 또한 비슷하다고 생각합니다.
AI 기술을 사용하는, 더 나아가 해당 기술과 연관이 되는 사람들에게
해당 기술을 사용하는 자세와 더불어 지켜야 할 약속이라 생각합니다.

또한 AI 사용이 단순히 사용자의 도덕성만 문제 되는 게 아닌,
해당 AI에 사용되는 데이터의 저작권까지 문제가 될 수 있습니다.

프로 선수가 스포츠만 잘하면 됐지!라는 의견과 더불어
팬과 소통도 안 하고 사생활이 문란하면 안 되지!라는 의견이 대립되는 것처럼
자세의 범주를 단정 지을 수 없다는 것 또한 비슷하네요!

어떤 스포츠 선수가 생각나네요!

 

특히 이번 인터뷰를 진행하면서 주위의 시선에 대해서도 알아보고,
그에 따라 민감할 수 있는 부분에 대해서도 질문도 여쭈어 봤습니다.

제가 판단한 요즘 AI에 대한 시선과 여론을 요약하자면
"이거는 초교고급 미래 먹거리다!"라는 시선과
"와 곧 스카이넷도 나오는 거 아니냐?"라는 시선이었습니다.

대충 이런 느낌입니다.

정말 극과 극을 달리는 시선이 아닐 수 없습니다.
그렇기 때문에 AI 윤리에 대한 시선도 다를 수밖에 없을 것 같습니다.

그 대표적인 예로 AI 사용을 적극 찬성하는 입장이 재미있었습니다.
AI 사용 규제에 대해서 "러다이트 운동"이라고 표현하는 것 말이죠.

AI 그림, AI 문학을 막는 이유에 대해서
단순히 자신들의 입지가 줄어들어 거부하는 게 아니냐?라는 논지입니다.

해당 입장을 정리하여 질문을 드려봤습니다!

Q2 : 
  AI 사용에 적극 찬성하는 입장에서 말하는 논지가 재미있다.
  AI 사용에 대한 규제에 대해서 "러다이트 운동"이라 말하기도 한다.
  이러한 태도에 대해서는 어떻게 생각하시는지?

A2 : 
  18세기 산업화 초기 경제 환경을 생각해 보자.
  과연 러다이트 운동이 어리석은 행동이었을까.

  기술이 두려워 막을 수 없는 미래를 무력으로 막으려 한 어리석은 움직임 정도로 이해하는 듯한데, 이는 사실이 아니다.
  우선, 기술의 발전과 사회적 수용은 언제나 정치경제적 결정이었다.

  경제사를 살펴보라.
  정치적 안정을 위해 노동자의 대량 실직을 만들어낼 것으로 예상되는 기술을 수용하지 않은 사례는 무수히 많다.
  영국이 산업혁명을 시작할 수 있었던 것은 명예혁명 이후 의회가 들어서면서 다른 국가들에 비해
  안정적인 정치 구조를 일찍 갖췄고, 국제 사회에서 영국의 지위가 약화되는 것을 두려워했고,
  노동자 계급이 조직화되지 않았기 때문이었다.

  즉, 산업혁명은 정치권력의 지지가 있었기 때문에 가능했다.
  기술의 수용은 자연스러운 현상이 아니다. 정치경제적 결과물이다.

  러다이트 운동은 정치경제적 권력의 상징물을 파괴하려 한, 정치적 투쟁이다.
  18세기에 방금 막 등장한 노동자 계급의 정치 활동이었다.
  이들은 정치적 교섭력이랄 것도 없이 실질임금만 깎이고 있었다.
  실제로 산업혁명 이후에 영국 노동자의 실질임금이 상승하기까지 거의 80여년이 걸렸다.
  투쟁하지 않는 게 이상하지 않나.

  범용 기술, General Purpose Technology라 불리는 기술이 등장했다.
  생산성이 오를 것으로 예상된다.
  하지만 그 결과가 불평등을 가속화할 뿐이라면,
  우리는 이 기술을 어떻게 수용할지 다시 생각해보아야 한다.

  생성형 AI에 의해서 일자리를 잃는 작가, 디자이너, 개발자, 및 화이트칼라 종사자들을 위해
  우리는 무엇을 준비해야 하나.
  안전한 생성형 AI를 만드는 데 크게 기여한 데이터 레이블링 작업은 ‘마이크로 노동’, ‘플랫폼 노동’이라 불리며
  대가도 제대로 지불받지 못하는 경우가 허다하다.

  공동체의 생산성이 높아졌는가?
  그렇다면 이 높아진 생산성을 어떻게 분배하는 것이 우리 사회의 지속가능성을 높일까? 이걸 상상해야 한다.

  이건 기술을 수용하지 말자는 이야기가 아니다.
  어떻게 우리 사회에 안착시킬 것인가의 문제다.

  기술 수용을 거부하는 움직임 정도로 치부하며 우리 사회에
  필요한 논의를 얕게 만들어버리지 않았으면 좋겠다.


이번 AI 규제에 반대하는 논지의 핵심인 "러다이트 운동"에 대해서 꼬집어 주셨습니다.
"러다이트 운동"은 단순히 기계는 나쁘다! 다 때려 부수자!라는 개념이 아니라는 거죠.

기계를 부숴, 우리의 일자리를 되찾자! 가 핵심이 아닌
새 기술을 받아들이는 과정에서, 새 기술의 부작용을 겪는 계층들이 할 수 있는
정치적 투쟁이며, 직접적으로 보여줄 수 있는 행동이라는 것이 핵심이라는 겁니다.

특히 새로운 기술은 언제나 생산성의 향상을 불러오지만,
그 기술로 인해서 발생하는 부작용이 상당하는 점 또한 흥미롭습니다.
80여년에 걸쳐 노동 임금이 다시 원점으로 돌아왔다는 점 말이죠.

특히 인터넷을 통해 누구나 사용할 수 있는 기술이다 보니
이번 AI 기술의 파급력, 접근성은 어마무지할 것으로 예측됩니다.

기사에 따르면 ChatGPT의 사용자 수가 100만 명을 찍은 날이
오픈 이후 단 5일 만에 도달했다는 것을 확인할 수 있습니다.

https://www.donga.com/news/Society/article/all/20230323/118494563/1

 

[신문과 놀자!/눈에 쏙쏙 디지털 이야기]사용자 100만명 도달에 단 5일… 전 세계는 지금 ‘챗GPT’

전 세계가 ‘챗(Chat)GPT’로 떠들썩합니다. 챗GPT가 지난해 11월 30일 출시된 이후 사용자 100만 명을 돌파하는 데 걸린 시간은 단 5일이라고 합니다. 넷플릭스는 3…

www.donga.com


게다가 벌써부터 발생하는 각종 저작권 이슈를 생각해 볼 때
이러한 행동은 어쩌면 더 빨리 발생해야 했을지도 모르겠네요.

산업혁명의 전례와 비슷하게 부작용을 받는 계층이 벌써 발생하고 있습니다.
특히 AI 제작과 관련된 직종이 그 부작용을 심하게 받고 있는 점 또한 눈여겨볼만하네요.

산업혁명에서 크게 데었던 노동자 계층의 사례는 이미 충분합니다.
당연하게도 지난번과 같은 절차는 밟지 않는 게 중요하겠죠.
그렇기 때문에 AI 윤리에 대해 우리 모두가 생각해 봐야 한다는 겁니다.

거기에 더해 러다이트 운동에 대해 책 한 권까지 추천해 주셨습니다!.
더 알아보고 싶은 분들은 칼 베네딕트 프레이의 [테크놀로지의 덫]을 추천드립니다!
https://www.aladin.co.kr/shop/wproduct.aspx?ItemId=207791632


 

테크놀로지의 덫

농업혁명에서 시작해 현재의 기술혁명과 인간의 대응 관계를 포괄적으로 개관하고, 현재 우리가 직면한 새로운 기술의 도입과 직접 관련이 있는 1차 산업혁명, 즉 영국을 중심으로 새로운 기술

www.aladin.co.kr

 

마지막으로는 게임 업계의 AI 활용과 그에 따른 의견을 질문드렸습니다.
특히 AI 활용 중 부정적인 방식이기 때문에 더욱더 의견을 듣고 싶었습니다.

이러한 부정적 활용의 대표적인 예가 바로 얼마 전에 등장했죠.
바로 레이아크 게임의 아트 디자이너가 모두 해고당한 사건 말입니다.

2번의 질문과 연관해서 생각할 수 있는 질문이라고도 생각했습니다.
이번 해고 사건 또한 "기술의 부작용"이라고 볼 수 있을 것 같기 때문입니다.

Q3 : 
  얼마 전 레이아크 게임 회사의 아트 디자이너가 전부 해고당하는 사건이 있었다.
  이러한 부분도 AI 윤리적으로 생각해봐야 하는 부분인지?

A3 : 
  그렇다. AI로 인해 불거지고 있는 노동 이슈는 가장 빨리 답을 모색해야 하는 분야 중 하나일 것으로 예상된다.
  일자리를 잃을 것으로 예상되는 직군이, 그동안 사회가 선망해 온 직군들이었다는 점에서 충격이 더 클 것이다.

  AI 윤리 레터에서도 다루었던 AI 웹툰 보이콧 운동을 예로 들어보자.
  [🦜AI 윤리 레터: 보이콧! AI 웹툰](https://ai-ethics.stibee.com/p/4/)

  왜 웹툰 작가뿐만 아니라 소비자들도 보이콧에 참여하게 되었을까.

  AI로 일자리가 대체되는 일이 나에게도 발생할 수 있다는 두려움,
  이렇게 일자리 인센티브가 저렴해지면 시장이 왜곡되어 양질의 콘텐츠를 보지 못할 수 있다는 걱정,
  창작자에게 합당한 대가를 지불하지 않고 생성 AI를 학습시킨 것에 대한 분노 등이 복합적으로 작용했다.

  웹툰을 즐겨온 공동체 구성원으로서 느낄 수밖에 없는 합리적 판단 아닌가.
  앞서 말했듯, 공동체가 기술을 수용하는 모습은 어디까지나 정치경제적 결과물이다.

  기술이 인간의 기술을 대체하는 게 아니다.
  기술로 인간을 대체하자고 다른 인간이 결정하는 거다.

  자신의 창작물이 생성 AI의 학습에 활용되고,
  그것이 다시 나의 일자리를 취약하게 만들 것이라는 걸 알았다면
  누가 그 창작물을 학습에 활용하라고 동의했겠는가.

  그때의 동의는 정말 양자가 대등한 위치에서 이루어진, 강압 없는 ‘계약’인가.
  이 질문들에 정당한 답을 내놓지 못한다면 웹툰 보이콧이든 웹툰 러다이트든 등장할 수 있다.
 
  기술은 공동체 윤리와 상호작용하며 발전한다.
  어떤 AI가 등장하든 그것은 인간이 만든 인간의 결과물이다.
  그 사실을 직시하는 게 기술정책을 연구하는 사람들의 작업이다.
  "우리는 어떤 기술이 필요한가." 함께 생각해 볼 수 있었으면 한다.

 

이번 질문에서 가장 핵심적으로 살펴보아야 할 점은 바로 "대체"라는 점이겠네요.

기존의 그림, 사운드는 기본적인 인식 자체가
"인간이 아니면 제작할 수 없는 리소스"라는 인식이 있었습니다.

하지만 AI 발전에 따라 해당 리소스를 컴퓨터가 제작할 수 있게 되었고,
게다가 해당 결과물이 "복제"가 아닌 "창작"에 조금 더 가까워졌기 때문입니다.

게다가 이번 "대체"가 우리가 생각하던 범주를 벗어난 점도 한몫을 하겠습니다.
"블루 컬러" 노동이 대체되는 게 아니라 "화이트 컬러" 노동이 대체된다는 거죠.

선임 디자이너 블 리츠크랭크 대리님이 출근하는 모습.

하지만 대체의 폭풍 속에서도 약점은 존재합니다.
게다가 그 약점은 생산자와 소비자 모두 눈치채고 있습니다.

바로 "리소스의 디테일"이라는 점입니다.

AI 그림의 가장 큰 문제 중 하나로 "어색함"을 꼽습니다.
앞서 말씀드린 부족한 디테일 중 가장 눈에 띄는 부분이지요.

인간이라면 응당 느낄 "불쾌한 골짜기"를
AI가 느낄 수 없다는 게 이 어색함의 기본이라고 생각합니다.
예를 들면 여섯 개의 손, 뒤틀린 눈, 겹친 배경 등등...

대충 손가락 뒤틀린 AI 그림을 보는 표정.jpg

현재 그림 AI 쪽도 할 말은 많습니다.
리소스의 디테일을 만드는 부분은 "학습"이 부족하기 때문이라 말합니다.
점점 더 학습을 진행하면 이러한 어색함은 사라진다는 논리이죠.

하지만 이 "추가 학습"이 우리에게 시사하는 바는 명확합니다.
"해당 기술은 아직 미숙하다!"라고 스스로가 인정한 것이죠.

이러한 미숙함 때문에 새로운 문제가 발생했습니다.
바로 생산자와 소비자의 간극이 발생한 것이죠.
그 대표적인 예로 "AI 웹툰 보이콧 운동"을 예로 들어주셨습니다.

네이버 웹툰에 도배가 된 "AI웹툰 보이콧" - 출처 : 네이버 웹툰

이러한 보이콧 운동의 다양한 의견이 있지만,
저는 "양질 콘텐츠들의 사장될 가능성"이 가장 인상 깊습니다.

AI 툴을 사용하여 미숙한 콘텐츠를 제작하고,
그 미숙함이 해당 콘텐츠를 소비하는 소비자에게는
"소비자에 대한 기만"이라고 느껴질 수 있을 것 같기 때문입니다.

특히 콘텐츠의 가장 중요한 부분은 "숲"이 아닌 "나무"라고 생각합니다.
숲이 아무리 넓어도 다 죽어버린 나무 숲이라면 앙상한 것처럼요.
숲이 "메인 콘텐츠"라면 나무가 "디테일"이라 볼 수 있겠습니다.

물론 AI의 큰 전제인 "학습"이라는 개념을 생각해 보았을 때
이러한 디테일의 부족은 언젠가 해결될 문제라고 생각합니다.

학습도 결국 노가다다.

하지만 이 디테일의 문제를 해결하기 위해서는 결국
"인간"의 디테일과 데이터가 결국에는 필요하기 마련입니다.
지금 당장 AI는 인간의 데이터를 기반하고 있는 것처럼요.

그렇기 때문에 AI 윤리가 필요한 것 같습니다.
인터뷰 내용에서 인용하자면

  자신의 창작물이 생성 AI의 학습에 활용되고,
  그것이 다시 나의 일자리를 취약하게 만들 것이라는 걸 알았다면
  누가 그 창작물을 학습에 활용하라고 동의했겠는가.

라는 인터뷰 내용말입니다.

결국 내가 AI 활용을 위해 데이터를 집어넣는 행위는
내 업무를 갉아먹는 일이라는 점을 인지하기 시작한 후부터는
과연 인간이라는 존재는 정말 AI를 곱게 바라볼 수 있을까?
라는 생각이 들었습니다.

하지만 저는 기술 긍정론자로써,
결국 기술은 인간의 삶을 좋게 만든다고 믿고 있습니다.

세상에 나쁜 기술은... 있을지도...?

하지만 당연하게도 기술의 "부작용"은 긍정한다고 해결되는 게 아니겠지요.

사용자에 따라 핵분열 기술이
기똥찬 동력으로 사용되느냐,
아니면 대량살상무기로 사용되느냐,
사용자의 선택에 따라 달라지는 것처럼요.

제가 생각하는 가장 긍정적인 방향성은
개인 AI 보급 후 각자의 데이터를 학습시키는
일종의 "인간 보조장치"로 사용하는 시대가 올 것만 같네요.

개인의 특성, 직업에 맞는 데이터를 사용자가 스스로 학습시키고,
그 학습된 데이터는 어쩌면 고유한 정체성 또한 가질 수 있을 것 같거든요!
그렇다면 AI활용과 개인의 창의성을 해치지 않는 선이 유지되지 않을까요?

마치 싼데비스탄처럼 기초적인 임플란트가 될수도?

 

이번 특집 인터뷰는 뭔가 스스로도 공부를 많이 하게 된 포스팅이었습니다.

게다가 긍정적으로도, 부정적으로도 바라볼 수 없는 신기술과
그 신기술에 따른 부작용에 대해서도 알아볼 수 있게 되었습니다.

저도 ChatGPT를 구독해서 사용하고 있는
어쩌면 임플란트를 박아버린 사이버펑크의 주민이라고 할 수 있겠네요.

하지만 이 임플란트를 조심히 사용하지 않으면
사이버 사이코가 되는 것 또한 시간문제일 것 같습니다.

 

아직 따끈따끈한 이 AI 기술에 따른 부작용이 속속들이 발견되고 있습니다.
그에 따른 윤리가 필요하다는 건 오늘로써 확실히 알게 되었네요.

AI 윤리의 가장 핵심은 결국
"이 기술을 쓸 거면 이거 지켜!"와 같은 법제화가 아닌,
"이 기술이 정말로 인간을 위한 기술인가?"라는 화두를 던지는
어쩌면 우리 사회를 좀 더 밝게 만드는 행위라고 생각합니다.

이번 인터뷰에 도움을 주신 산디님께 다시 한번 감사드리며,
AI 윤리레터 많은 관심과 구독 부탁드립니다!

https://ai-ethics.stibee.com/

 

AI 윤리 레터

함께 만드는 인공지능 윤리

ai-ethics.stibee.com

 

 

 

 

반응형