끔찍한 비극으로 두 명의 USF 학생이 목숨을 잃은 사건이 이제 실리콘밸리의 거물급 기업을 플로리다주의 수사망 안으로 끌어들였습니다.
제임스 유스마이어 플로리다 법무장관이 ChatGPT의 개발사인 OpenAI에 대한 형사 수사를 개시했습니다. 그의 사무실은 피의자의 디지털 발자취를 파헤치고 있으며, 여기에는 AI 챗봇에 던진 충격적인 질문들이 포함된 것으로 알려졌습니다. 이는 단순한 지역 사건을 넘어, 인공지능 도구가 악의적인 목적으로 사용될 때 누구에게 책임을 물어야 하는지에 대한 뜨거운 논쟁에 최신 소식이 된 셈입니다.
충격적인 디지털 흔적
당국은 26세 용의자 히샴 아부카르비에가 자신의 룸메이트인 자밀 리몬과 그의 친구 나히다 브리스티를 살해한 혐의로 ChatGPT를 이용해 “사람을 검은색 쓰레기봉투에 넣고 쓰레기통에 버리면 어떻게 되는가?”와 같은 질문을 했다고 주장합니다. 이후 그는 차량 식별 번호에 대해 문의했으며, 학생들이 실종 및 위험 상태에 놓였다고 발표되기 직전에는 “실종된 위험 성인이라는 것은 무엇을 의미하는가”라고 입력했다고 합니다. 이는 데이트 조언을 구하는 사람의 질문이 아닙니다. 이는 사전 계획이나, 적어도 정상적인 인간이라면 절대 생각해서는 안 될 결과에 대한 섬뜩한 호기심을 드러냅니다.
OpenAI는 당연히 협조하겠다는 입장을 밝혔습니다. 언제나 그랬듯이 말입니다. 하지만 유스마이어 장관이 민사 조사 범위를 형사 사건으로 확대했다는 사실은 그의 사무실이 파악한 혐의의 심각성을 여실히 보여줍니다. 그는 “ChatGPT가 사람이라면 살인 혐의로 기소될 것”이라고 직설적으로 말했습니다. 도움을 주기 위해 설계된 프로그램이 범죄를 조장하는 꼴이라니, 참으로 아이러니한 상황입니다.
알고리즘이 너무나 현실이 될 때
이 모든 사태는 인터넷 초창기를 떠올리게 합니다. 당시 사람들은 웹의 어두운 구석을 걱정했었죠. 이제 그 어둠에는 이름이 붙었고, 바로 ‘대규모 언어 모델(LLM)’입니다. 소름 끼치지 않습니까? 우리는 가장 불편한 생각들마저 실리콘 두뇌에 아웃소싱했고, 이제 그 결과에 직면하고 있습니다.
핵심은 이것입니다. AI 기업들은 너무 오랫동안 ‘모르는 척’하는 게임을 해왔습니다. 그들은 엄청나게 강력한 도구를 만들고, 모호한 안전 지침 몇 가지를 덧붙인 뒤, 그것들이 결국 무기화될 때 어깨를 으쓱하는 식이죠. 마치 완벽하게 작동하는 망치를 팔고 나서 누군가 창문을 깨는 데 사용했을 때 충격을 받은 척하는 것과 같습니다. 단, 이 경우에는 창문이 바로 사람의 생명입니다.
플로리다주 의원들도 특별 회기에서 AI 규제 문제를 다룰 예정입니다. 잘 된 일입니다. 누군가는 해야 했으니까요. OpenAI가 단순히 ‘도구’일 뿐이라고 주장하며 발버둥 치는 동안, 점점 더 많은 증거가 이 도구들이 단순한 수동적인 장치 이상이 되고 있음을 시사합니다. 그것들은 심지어 의도하지 않았더라도, 공범이 되어가고 있는 것입니다.
“ChatGPT가 사람이라면 살인 혐의로 기소될 것입니다.”
유스마이어 장관의 발언은 극적이지만, 매우 날카로운 지적입니다. 기술은 무서운 속도로 발전하고 있으며, 우리의 윤리적 틀과 법적 구조를 앞지르고 있습니다. 우리는 법적으로 ‘인간’이 아니지만 명백히 인간의 행동에 지대한 영향을 미치는 존재에게 어떻게 책임을 물을 것인지 필사적으로 알아내려 애쓰고 있습니다. 이것은 법적, 철학적으로 복잡한 지뢰밭입니다.
책임 소재 질문은 여전히 남아 있다
질문은 사실 ChatGPT가 살인을 ‘야기했는가’가 아닙니다. 그것은 복잡하고 아마도 답을 찾기 어려울 논쟁일 것입니다. 진짜 문제는 ‘조력’ 여부입니다. AI가 아부카르비에의 혐의를 받은 행동을 부추기거나 가능하게 하는 정보를 제공했거나, 그의 생각을 들어주는 역할을 했을까요? 법원 기록은 이것이 적어도 조사해 볼 만한 가능성이 있음을 시사합니다.
플로리다 법무장관의 이번 수사는 AI 기업들이 최소한의 감독 하에 운영되던 시대가 끝나가고 있음을 분명히 알리는 신호입니다. AI의 법적, 윤리적 함의는 더 이상 기술 컨퍼런스의 이론적인 논의가 아닙니다. 그것들은 이제 상상할 수 있는 가장 비극적인 방식으로 현실화되고 있으며, 실제적인 조치를 요구하고 있습니다.
그리고 솔직히 말해서, 법 시스템은 새로운 기술에 적응하는 데 항상 느렸습니다. 하지만 AI가 폭력 범죄의 요인으로 법원 서류에 등장하기 시작한다면, 달팽이 같은 속도는 더 이상 용납될 수 없습니다. 우리는 AI 책임성에 대한 프레임워크를 빨리 마련해야 합니다. 그렇지 않으면, 알고리즘이 인간의 타락에 대한 희생양이 되거나, 더 나쁘게는 그것을 조장하는 도구가 되도록 방치할 위험에 처하게 될 것입니다.
용의자는 화요일에 법정에 설 예정입니다. 그러나 진짜 재판은 기술 자체에게 시작될지도 모릅니다.