수백만 명, 챗GPT에 법률 상담…대화 내용이 법정 증거 될 수 있는 위험은 몰라​

미국에서 인공지능 챗봇을 통해 법률 상담을 받는 사람이 급증하고 있지만, 상당수 이용자는 이 대화가 소송 과정에서 증거로 제출될 수 있다는 점을 전혀 인식하지 못하고 있는 것으로 나타났다. 전문가들은 AI를 ‘무료 법률 상담 창구’처럼 사용하는 행태가 이용자에게 새로운 법적 위험을 안기고 있다고 경고한다.

로펌 콜모고로프 로가 10월 미국 성인 1,000명을 대상으로 실시한 설문조사에 따르면, AI 이용자의 56%가 챗GPT 같은 챗봇에 법률 관련 질문을 해 본 것으로 집계됐다. 그러나 절반에 해당하는 50%는 이 대화 내용이 재판에서 증거로 제출될 수 있다는 사실을 모르고 있다고 답했다. 응답자의 67%는 챗봇과의 대화도 변호사·의사 상담처럼 법적 비밀 보호를 받아야 한다고 생각하지만, 현재 어떤 관할권에서도 이런 ‘AI 대화 비밀 특권’은 인정되지 않는다.

조사에 따르면 이용자 34%는 이미 기밀 비즈니스 정보나 민감한 개인 정보를 챗봇에 입력한 경험이 있다고 답했다. 변호사와의 상담이 변호사–의뢰인 비밀유지 의무로 보호되는 것과 달리, 챗GPT에 입력한 내용은 원칙적으로 일반 데이터로 취급돼 소송에서 증거 제출 요구(디스커버리·소환장 등)의 대상이 될 수 있다.

실제 형사 사건에서도 AI 대화가 증거로 활용된 사례가 나오고 있다. 올해 캘리포니아 퍼시픽 팰리세이즈 대형 산불 사건과 관련해 기소된 플로리다 출신 우버 기사 조너선 린더크네히트는, 불이 나기 전과 후에 챗GPT에 불 관련 질문을 던진 기록과, 챗GPT로 만든 “불타는 도시와 도망치는 사람들”을 묘사한 디스토피아 이미지가 디지털 증거로 제시됐다. 검찰은 이 기록들이 방화 의도와 사후 정황 조작 시도를 보여준다고 주장했다.

버지니아주의 한 살인 사건에서는 피고인이 AI 챗봇과 주고받은 메시지가 계획 범행의 정황을 뒷받침하는 증거로 제출됐고, 피고인은 1급 살인 혐의로 25년형을 선고받았다. 법률 전문가들은 “이용자 입장에서는 가벼운 고민 상담처럼 느꼈던 대화라도, 수사·재판 단계에서는 의도나 심리를 드러내는 자료로 재구성될 수 있다”고 지적한다.

로체스터 공과대 철학 교수 에번 셀린저는 최근 보스턴 글로브 기고에서 챗GPT를 “친근한 실리콘 현자처럼 보이지만, 자신이 내놓는 조언에 대해 어떤 책임도 질 수 없는 존재”라고 평했다. 그는 사람들이 챗봇을 인격적 조언자로 대하는 순간, 기술 회사는 법적 책임을 피하면서도 이용자에게 중대한 영향을 미치는 구조가 고착된다고 비판했다.

오픈AI는 10월 29일 사용 정책을 개정해, 개별 이용자 상황에 맞춘 전문 직역(의료·법률·투자 등) 조언 제공을 금지한다는 방침을 명시했다. 하지만 연구자들과 기술 전문 매체들은 간단한 우회 질문만으로도 여전히 꽤 구체적인 법률·재정 조언을 얻을 수 있다며, 이번 조치가 ‘형식적 안전장치’에 그칠 수 있다고 지적한다.

이 같은 인식 격차는 이용자 행동에도 직접적인 영향을 미칠 수 있다. 설문에서 응답자의 51%는 “대화 내용이 법정에서 증거로 사용될 수 있다는 사실을 안다면, 챗봇 대신 인간 변호사를 찾겠다”고 답했다. 76%는 챗봇과의 대화에 일정한 법적 비밀 보호를 부여하는 방향으로 정부 규제가 필요하다고 봤고, 47%는 “대화를 시작하기 전, 법적 리스크를 명확히 알리는 경고 문구가 떠야 한다”고 요구했다.

도널드 트럼프 행정부는 이런 우려가 커지는 가운데 연방 차원에서 AI 규제 주도권을 강화하려 하고 있다. 12월 11일 발표된 행정명령은 ‘AI 소송 태스크포스’를 신설해 주(州)별 개별 규제가 혁신을 저해하지 못하도록 연방 차원의 법적 대응을 정비하겠다고 밝혔다. 다만 이번 조치는 이용자와 챗봇 간 대화의 비밀 보호나 증거 사용 제한 같은 사생활·프라이버시 문제는 구체적으로 다루지 않아, 규제 공백에 대한 논쟁은 계속될 전망이다.

다음 이전

문의하기 양식