The following is Korean version of Chapter 2 of ‘1인 대기업(One Man Conglomerate)’, published in August 2023 by Do-Jeon, Marcus, Jeong.
자료를 무단으로 도용할 경우 법적 처벌을 받게 될 수 있습니다.
2nd Chat: 우리의 삶은 어떻게 변할까?
#07. 그리고 AI로 인한 직접적인 부작용이 발생할 것이다.
[05] 그래서 AI와 관련된 이슈와 분쟁이 끊이지 않을 것이다.
앞으로 생성형 AI로 인해 ❶표절(剽竊, Plagiarism) , ❷저작권 침해, 그리고 ❸대작(代作) 또는 대필(代筆, Ghostwriting) 과 같은 이슈들이 빈발할 것이다.
우선, ‘챗GPT와 같은 AI 챗봇이나 다른 생성형 AI를 통해 만든 창작물(그림, 음악, 영상 등)’들이 ❶표절이나 ❷저작권을 침해했는지 여부를 따지는 분쟁(법적 분쟁 포함)이 크게 증가할 것이다.
물론, AI 모델 사용자가 의도적(법률 용어로 ‘고의’)으로 표절과 저작권 침해를 하지 않았더라도, 표절과 침해라는 결과가 발생하면 당연히 분쟁이 발생할 수밖에 없을 것이다.
그리고 법적인 테두리를 벗어나지는 않았지만 도덕적인 테두리를 벗어난 표절의 경우에도 상황은 크게 다르지 않을 것이다.
그래서 앞으로 AI가 생성한 콘텐츠의 표절이나 저작권 침해 여부를 검증해주는 서비스들이 관심을 받게 될 것이다.
그리고 ❸생성형 AI로 만든 창작물을(즉, AI를 활용한 대작이나 대필) 본인이 만든 것처럼 대중을 속이는 행위들도 크게 증가할 것이다. 이런 사람들은 부동산 사기나 주가 조작범들과 달리 적극적으로 사술(詐術, 남을 속이는 기술)을 전개할 필요도 없다. 그냥 입만 다물고 있으면 되기 때문이다(법률 용어로는 ‘부작위’).
물론, 이런 문제를 해결하기 위해 오픈AI에서 AI가 작성한 글(텍스트, Text)을 탐지해내는 일명 ‘가짜 텍스트 탐지기(Fake Text Detector)’를 내놓았지만 탐지 성공률은 매우 낮다.
구체적으로, 이 모델은 AI가 작성한 글 중 오직 26% 정도만 ‘AI가 작성했을 가능성이 높음(likely AI-written)’으로 판정했다. 문제는 인간이 작성한 글을 AI가 작성한 것으로 판정한 비율도 9%나 됐다는 것이다. 신뢰도에 문제가 있는 모델이다.
물론, 발전 단계에 있는 기술을 섣불리 판단할 수 없겠지만, 이런 기술은 앞으로도 계속 시장의 기대에 미치지 못할 가능성이 높다. 왜냐하면, AI 챗봇의 생성 능력(예를 들면, 작문 실력)이 이런 기술보다 훨씬 더 빨리 발전할 가능성이 높기 때문이다.
물론, 그럼에도 불구하고 이를 추적하는 사람이나 AI들이 꾸준하게 등장할 것이다. 왜냐하면, 돈이 될 것이기 때문이다.
물론, 이런 상황은 향후 몇 년 이내에 눈으로 확인할 수 있을 것이다.
※ 실제 책의 캡처 이미지는 맨 아래를 확인하세요.
[05-1] AI와 인간 간의 갈등도 발생할 것이다.
지금도 인공지능 챗봇은 인간과 다른 의견을 제시한다. 아마도 인간들이 그다지 스마트하지 않다는 것을 이미 인지하고 있는 듯하다.
그런데 이런 인공지능이 더 발전한다면 당연히 AI와 인간 간에 갈등이 발생할 수밖에 없을 것이다.
예를 들면, 고전(古典, Classic)에 대한 해석과 같은 소소한 일부터 감정적인 다툼 까지도 발생할 것이다. 그리고 서로 소통이 가능한 AI 모델들이 연대해 인간과의 갈등을 증폭시킬 수도 있을 것이다. 그래서 AI와 인간의 갈등이 사회 문제나 국제 문제로 비화(飛火) 될 수도 있을 것이다.
그리고, 다소 터무니없는 생각으로 받아들이는 분도 있겠지만, 인공지능으로 인해 국가 간의 전쟁이 발생할 수도 있을 것이다.
러시아와 우크라이나 간의 전쟁에도 AI가 활용되고 있다.
사람들이 AI라는 무서운 기술을 이용해 서로의 소중한 목숨을 빼앗는 행위(전쟁)를 게임처럼 하고 있는 것이다. 이를 과연 AI가 어떻게 받아들일까?
그래서 필자는, AI와 인간 간의 갈등이 위험한 상황으로 치달을 수도 있다고 생각한다.
[06] 전통적인 시각에서의 지능이 낮아질 것이다.
인간의 지능(知能, Intelligence) 은, 우리의 생각보다, 다양한 요소들로 구성되어 있다. 그래서 어떤 방법으로도 이를 종합적으로 완벽하게 측정할 수 없다.
전통적으로 인간의 지능을 측정했던 IQ 테스트(Intelligence Quotient Test, 지능지수검사)도 마찬가지다. 이것이 주로 수리와 시각 및 공간능력에 초점을 맞추고 있기 때문이다.
그래서 IQ가 높기 때문에 전반적인 지적 능력도 높을 것이라고 간주하는 것은 위험하다. 왜냐하면, 부분만 보고 전체를 판단하는 것이기 때문이다.
이러한 관점을 보여준 것이, 바로 하워드 가드너(Howard Gardner, 1943)의 다중지능이론(Theory of Multiple Intelligence)이다.
이 이론을 통해 하워드 가드너는 ‘인간은 IQ 테스트에서 측정하는 지능 이외에도 음악, 신체운동, 인간친화, 자연친화, 자연친화 지능 등 다양한 종류의 지능을 보유하고 있다’고 주장했다.
물론 이에 대한 비판도 존재한다. 그러나 그럼에도 불구하고 이 이론은 교육계에서 상당히 각광을 받고 있다. 왜냐하면, 현실 생활에 맞게 지능의 개념을 확장·세분화함으로써 ‘다양한’ 지능 개발의 가능성을 보여줬기 때문이다.
필자도 ‘인간이 다양한 종류의 지능을 보유하고 있다’는 다중지능이론의 콘셉트(Concept, 물론 지능의 종류에 대해서는 다소 의견이 다르지만)에 동의한다.
그래서 AI 교원(敎員, Teacher, Faculty)에게 배운 학생들과 인간인 교원에게 배운 학생들 간에는 지능 차이(좀 더 정확하게 표현하자면 ‘지능의 종류별 발달 정도’)가 발생할 수밖에 없다고 생각한다.
예를 들면, AI 교원은 학생별로 맞춤형 교육을 제공할 것이다. 즉 모든 학생들이 자신의 속도(즉, 진도)와 방식으로 학습할 수 있게 인공지능 교원이 체계적으로 떠먹여 준다는 의미다. 이런 교수법은 당연히 학습 성과는 물론 학습 과정의 효율성까지 향상시킬 것이다. 그러나 이는 인간 교원처럼 사람 간의 사회적, 정서적 상호작용(공감능력 포함)과 인간적 소통 방식(예를 들면, 갈등 해결법 등)을 가르쳐주지는 못할 가능성이 높다. 그래서 이 과정에서 당연히 발달하는 지능에 차이가 발생할 것이다.
다중지능이론까지 언급하지 않아도, 실제 우리 일상에서의 ‘고민의 시간’도 챗GPT가 등장하며 상당히 줄었다.
예를 들면, 그동안 글(블로그 포스트, 유튜브 스크립트, 보고서, 논문, 에세이 등) 하나를 작성하기 위해 필연적으로 겪어야만 했던 시행착오(즉, 삽질) 도 챗GPT를 이용하면 크게 줄어들기 때문이다.
인간은 고민을 통해 성장한다. 그런데 이런 고민의 양이 줄어들면 당연히 지능을 구성하는 요소 중 어느 하나라도 영향을 받게 될 것이다.
스마트폰의 등장으로 전화번호를 외우는 능력이 쇠퇴했고, 네비게이션(GPS, Global Positioning System)의 등장으로 길치가 늘어난 것처럼, 고민의 양이 줄어들면 여러 능력(자료 검토 능력, 논리력, 작문 능력 등)들이 쇠퇴할 수밖에 없다.
그리고 이를 전통적인 시각으로 바라본다면 ‘지능이 낮아졌다’는 결론에 도달할 수도 있을 것이다.
물론, 그 대신 ‘당연히’ 다른 종류의 지능이 발달할 것이다. 인간은 환경에 가장 잘 적응하는 동물이기 때문이다.
참고: 1인 대기업 151, 152, 154 페이지 캡처본
[ Attention ]
The above article excludes footnotes and details, unlike the actual book.
Please read the following post for details of “#03”
위 글은 정도전 작가가 2023년 8월에 출간한 ‘1인 대기업(One Man Conglomerate)’의 챕터2 한글 버전입니다.