The following is Korean version of Chapter 2 of ‘1인 대기업(One Man Conglomerate)’, published in August 2023 by Do-Jeon, Marcus, Jeong.
자료를 무단으로 도용할 경우 법적 처벌을 받게 될 수 있습니다.
2nd Chat: 우리의 삶은 어떻게 변할까?
#08. 물론, 과거와는 다른 사회문제도 발생할 것이다.
[06] 물론, 해킹(Hacking)도 크게 증가할 것이다.
챗GPT와 같은 AI 챗봇을 탈옥(脫獄, Jailbreaking) 시키는 행위가 크게 증가할 것이다.
왜냐하면, 인간의 호기심은 끝이 없고, 자신의 실력을 과시하고 싶은 사람들은 언제나 존재하기 때문이다.
물론, 단순히 탈옥만으로는 큰 문제가 되지 않을 것이다. 왜냐하면, 탈옥 방법을 발견하는 것이 개발자에게도 도움이 되기 때문이다.
문제는 이를 악용한 해킹(Hacking)이다.
즉, 챗GPT를 탈옥시킨 상태에서 타인의 컴퓨터를 해킹할 수 있는 방법을 알아내고 이를 활용해 그 컴퓨(또는 정보시스템)를 해킹하는 행위는 단순한 탈옥과는 차원이 좀 다른 이야기다.
해킹은 탈옥과 달리 범죄행위 가 될 수 있기 때문이다.
그럼에도 불구하고 챗GPT와 같이 코딩 능력이 탁월한 AI 챗봇을 활용한 해킹 시도나 범죄 행위가 당분간 급증할 것으로 예상된다.
왜냐하면, 전문 프로그래머가 아니라도, AI 챗봇를 활용하면 특정 컴퓨터나 정보시스템의 약점을 쉽게 찾아 낼 수도 있기 때문이다.
더불어, 챗GPT와 같은 AI 챗봇의 연결 시스템이나 네트워크를 해킹(Hacking)해 이용자들의 개인 정보를 몰래 빼내는 행위도 증가할 것으로 예상된다.
[06-1] 그래서 정보 유출이 심각한 사회 문제가 될 것이다.
인공지능 기술이 발전함에 따라 정보 유출이 심각한 사회 문제로 부상할 것이다.
왜냐하면, 관련 전문가가 아니어도 AI의 도움을 받으면 이를 시도할 수 있기 때문이다.
그리고 AI 기술과 함께 발전한 여러 첨단 기술(ICT 포함)들로 인해 정보 유출의 발생 빈도와 규모가 과거와는 차원이 다른 수준이 될 것이기 때문이다.
아무튼, AI 관련 정보 유출은 주로 ❶챗GPT와 같은 AI 모델을 악용한 ‘해킹(AI 챗봇과 사용자 간의 네트워크 해킹 포함)’과 ❷AI 모델의 ‘API 이용’때문에 발생할 것이다.
그리고 이렇게 유출된 개인정보나 기업(물론 공공기관 이나 개인사업자 포함)의 기밀정보(고객 및 거래 데이터, 제조 기술, 영업 노하우 등)들은 다른 범죄 등에 악용되며 사회와 경제를 어지럽게 만들 것이다.
물론, 정보 유출을 처벌하기 위한 제도는 마련돼 있다. 문제는 이런 행위들에 대한 처벌 수위가 현실적이지 않고, 정보 유출 피해자에 대한 구제제도도 상당히 미흡하다는 것이다.
구체적으로, 개인정보보호위원회가 최근 개인정보보호법규 위반으로 제제한 이력을 살펴보면 이름만 들으면 알 수 있는 공공기관이나 금융기관 등에게도 경미한 수준의 과징금 부과가 전부이다.
구체적으로 해킹으로 고객 정보 78만건이 유출돼도 과징금 10억 원에 과태료 360만 원이 고작이다.
물론, 정보 유출 피해자(법률상 용어는 ‘정보주체’)에 대한 보상(또는 배상) 부담도 크지 않다.
왜냐하면, 피해자가 직접 법원에 손해배상을 청구해야만 보상을 받을 수 있는데 그 보상의 한도가 300만 원으로 제한돼 있기 때문이다.
이런 경미한 보상을 받기 위해 손해배상을 요구하는 사람은 많지 않을 것이다.
그리고 개인정보 이외의 정보 유출에 대한 처벌도 이와 비슷하다.
예를 들면, 산업기술의 유출방지 및 보호에 관한 법률(약칭 산업기술보호법) 제36조는 국가핵심기술을 외국에서 사용하거나 사용하게 할 목적으로 유출한 경우 3년 이상의 징역에 처하도록 돼 있다(동법 제36조).
그러나 실제 반도체기술을 빼돌려 중국 수출용 장비를 개발한 자에 대해 1심 법원은 징역 1년 6월을 선고하기도 했다.
대법원의 기본 양형기준이 법정 형량보다 더 관대(‘1년~3년 6월’)하기 때문이다.
물론, 이 건은 그나마 처벌이라도 된 사안이지만, 사실 처벌 자체도 절대 쉬운 일이 아니다.
2021년 기준, 동법 위반으로 재판에 넘겨진 1심 사건은 모두 33건이었으나 그중, 무죄(20건, 60.6%)와 집행유예(9건, 27.2%)가 87.8%나 됐다.
그리고 안타깝게도 부정경쟁방지 및 영업비밀보호에 관한 법률(약칭 부정경쟁방지법)에 관한 사건들도 이와 크게 다르지 않다.
이런 상황에서 정보 유출의 원인 중 하나인 해킹은 여전히 계속 증가하고 있다.
정보보호 등에 관한 법률(약칭 정보통신망법)과 형법을 통해 처벌이 가능함에도 계속 증가하고 있는 것이다.
분명 어딘가에 문제가 있을 것이다.
아무튼 이런 추세는 챗GPT를 포함한 인공지능 모델들을 능수능란(能手能爛)하게 다루는 사람들이 늘어날수록 더 크게 증가할 것이다.
[07] 생성형 AI를 활용한 음란물 시장이 크게 성장할 것이다.
생성형 AI 기술이 급속도로 발전하고 있다. 그래서 이를 이용해 실사(實寫, Actual Image)보다 더 실사 같은 이미지나 영상을 생성할 수 있게 됐다.
물론 지금은 약간의 제약(예를 들면, 사양이 높은 고가의 컴퓨터나 동영상의 완성도 등)이 있긴 하지만 앞으로 동영상 생성 기술이 조금 더 보완된다면, 개인도 자신의 취향에 맞는 음란물을 제작할 수 있게 될 것이다.
이는 기존이 딥페이크(Deepfake) 기술과는 차원이 다르다.
딥페이크는 주로 촬영된 동영상에 등장 인물의 얼굴을 다른 사람(주로 유명인)으로 합성하는 수준이라면, 생성형 AI를 이용한 기술은 등장 인물부터 동영상까지 모두 텍스트투(Text-to) 방식으로 생성해낼 수 있기 때문이다.
물론, 지금은 주로 이미지 중심의 음란물이 생성되는 단계이지만 이런 상황이 오래가지는 않을 것이다.
시간이 지날수록 딥페이크와 텍스트투 기술도 발전할 것이기 때문이다.
그러면 정말 개인이 집에서도 손쉽게 상업적으로 유통 가능한 수준의 음란물을 양산할 수 있게 것이다.
물론, 이를 좀 더 긍정적인 분야에서 활용할 수도 있을 것이다. 예를 들면, 영화나 드라마를 개인이 직접 제작하는 것이다.
[08] 그러나 AI에게 죄책을 물을 수 없을 것이다.
챗GPT를 포함한 생성형 AI들이 인간의 범죄 행위(예를 들면, 사기, 위조, 업무방해, 주가조작 , 저작권 침해 등)에 활용될 수 있다.
이런 경우 AI가 범죄의 도구로 활용됐기 때문에, AI에게 형사 책임을 묻기 어렵다.
그러나 인간만큼 스마트한 인공지능이 단독으로 범죄를 주도하거나(법률 용어로 단독정범 ), 타인과 함께 범죄를 저지르거나(공동정범 ), 타인을 도구로 사용하거나(간접정범 ), 타인에게 범죄를 사주하거나(교사범 ), 타인의 범죄를 도와준 경우(종범 )에는 어떻게 될까?
예상했겠지만, 현재의 법체계에서는 AI를 처벌할 수 없다.
왜냐하면, 우리나라 형법은 범죄의 주체를 자연인(自然人, 法人과 대치되는 말)으로 제한하고 있기 때문이다.
즉 사람(내국인이든 외국인이든)만이 범죄를 저지를 수 있다는 의미이다.
이를 법률 용어로 표현하자면, ‘AI는 범죄능력(犯罪能力) 이 없다’고 한다.
즉, AI는 범죄능력이 없기 때문에 범죄를 저질러도(다른 사람들의 법익을 침해해도) 처벌(또는 법적 책임을 부과)할 수 없다.
그리고 AI는, 법인과 달리, 양벌 규정 을 통해서도 처벌할 수 없다.
왜냐하면, 양벌 규정은 어떤 범죄가 성립했을 때 행위자는 물론, 행위자와 일정한 관계가 있는 자(자연인이나 법인)에게 형벌을 과할 수 있다는 규정이기 때문이다.
그래서 AI를 활용한 범죄가 기승(氣勝)을 부릴 가능성이 높다.
참고: 1인 대기업 170-173 페이지 캡처본
[ Attention ]
The above article excludes footnotes and details, unlike the actual book.
Please read the following post for details of “#03”
위 글은 정도전 작가가 2023년 8월에 출간한 ‘1인 대기업(One Man Conglomerate)’의 챕터2 한글 버전입니다.
Image: AI-generated by Midjourney