|
광고 슬롯: header-banner
광고 슬롯: content-top

회사 기밀을 AI에 입력하면 일어나는 일 — 직장인이 반드시 알아야 할 보안 위험

회사 기밀을 AI에 입력하면 어떤 일이 벌어질까요? 업무 보고서를 빠르게 완성하고 싶어서 회사 매출 데이터를 ChatGPT에 붙여넣은 적 있습니까? 고객 목록을 정리하려고 이름과 연락처를 AI에 입력한 경험은 없습니까? 그 순간 입력한 데이터가 어디로 가는지 정확히 알고 계신 분은 많지 않습니다.

실제로 2023년 삼성전자 반도체 소스코드 유출, 2024~2025년 글로벌 기업 섀도우 AI 문제, 2026년 카카오·네이버 AI 도구 전면 차단까지 — AI를 통한 기밀 유출은 이미 현실입니다. 이 글에서는 회사 기밀을 AI에 입력하면 구체적으로 무슨 일이 벌어지는지, 도구별 보안 수준 차이, 그리고 개인이 실행할 수 있는 보안 조치를 정리합니다.

핵심 요약

  • 무료 AI 챗봇에 입력한 데이터는 기본 설정에서 모델 학습에 사용될 수 있다. 삼성전자 반도체 소스코드 유출(2023), 직장인 11%의 회사 데이터 AI 입력(Cyberhaven 2024), 카카오·네이버 AI 도구 차단(2026) 등 기밀 유출은 이미 현실이다.
  • AI 도구마다 보안 수준이 다르다. ChatGPT 무료는 학습 기본 ON, Plus/Team은 기본 OFF, Enterprise는 완전 제외다. Claude Pro는 기본 OFF + 90일 삭제, Gemini 무료는 학습 ON + 최대 18개월 보관이다. 업무 민감도에 맞는 도구 선택이 필수다.
  • 고객 개인정보, 미공개 재무 데이터, 소스코드, 인사 정보, 계약서는 어떤 AI에도 입력하면 안 된다. 개인정보를 무단 입력하면 최대 5천만 원 과태료 대상이다. 실제 값을 [회사명], [금액]으로 교체하는 데이터 마스킹을 사용하면 구조 분석을 안전하게 할 수 있다.

회사 기밀이 AI에 입력되면 구체적으로 무슨 일이 생기는가

AI 챗봇에 입력한 데이터는 AI 회사 서버로 전송되며, 무료 버전 기본 설정에서 모델 학습에 활용됩니다. 학습에 반영된 데이터는 삭제 요청을 해도 모델 가중치에서 제거할 수 없으며, 특정 조건에서 재생성되는 '기억 추출' 위험이 존재합니다.
현장 경험 |업무 기획서 초안을 빠르게 잡고 싶어서 회사 프로젝트 내용을 ChatGPT에 넣은 적이 있었다. 나중에 동료에게서 "그거 학습 데이터로 들어갈 수 있다는 거 알아?"라는 말을 듣고 나서야 설마 싶어서 약관을 찾아봤다. 실제로 무료 버전 기본 설정에서 학습 활용이 켜져 있었다.

직장인 대부분은 AI 챗봇에 텍스트를 입력하는 행위를 '검색'과 비슷하게 인식합니다. 그러나 AI 챗봇 입력은 검색 엔진 키워드 입력과 본질적으로 다릅니다. 입력한 텍스트가 AI 회사 서버로 전송되고, 서비스 약관에 따라 모델 학습 데이터로 활용될 수 있기 때문입니다.

광고 슬롯: content-mid

모델 학습 데이터 편입

무료 또는 기본 유료 플랜에서 '모델 학습에 대화 내용 사용' 옵션이 켜져 있으면, 입력된 텍스트가 학습 파이프라인에 포함됩니다. 학습에 사용된 데이터는 삭제 요청을 해도 모델에서 완전히 제거하기 어렵습니다. 이미 가중치에 반영된 정보는 특정 조건에서 재생성될 수 있으며, 이를 기억 추출(memorization extraction) 공격이라 부릅니다.

서버 저장 및 접근 가능성

입력 데이터는 AI 회사 서버에 일정 기간 저장됩니다. OpenAI의 경우 API를 통한 입력은 30일간 보관 후 삭제한다고 명시하지만, 웹 인터페이스를 통한 대화 기록은 사용자가 직접 삭제하지 않는 한 유지됩니다. 서버가 해킹될 경우 저장된 대화 기록이 통째로 유출될 수 있습니다.

제3자 플러그인·확장 기능을 통한 유출

ChatGPT 플러그인이나 GPTs(커스텀 GPT)를 사용할 때, 입력 데이터가 OpenAI뿐 아니라 플러그인 개발사의 서버로도 전송될 수 있습니다. 에이전트 OS 환경에서 AI가 로컬 데이터와 인증 토큰, API 키를 외부로 유출하는 취약점이 모의 해킹 실험에서 확인된 바 있습니다.

ChatGPT 기밀 유출 — 실제로 벌어진 사건들

삼성전자 반도체 소스코드 유출, 직장인 11%의 회사 데이터 AI 입력, 카카오·네이버 AI 도구 전면 차단까지 AI 기밀 유출은 이론이 아닌 현실입니다. 악의 없는 업무 편의 목적이었지만, 결과는 통제 불가능한 기밀 유출로 이어졌습니다.
사건 1 · 2023년

삼성전자 반도체 소스코드 유출

삼성전자 반도체 부서 엔지니어들이 코드 디버깅과 회의록 요약을 위해 ChatGPT에 반도체 설비 소스코드와 사내 회의 내용을 입력했습니다. 불과 20일 만에 3건의 유출이 발생했으며, 삼성전자는 이후 사내 ChatGPT 사용을 전면 금지하고 자체 AI 도구 개발에 착수했습니다.

사건 2 · 2024~2025년

글로벌 기업 섀도우 AI 문제

IT 보안 업체 사이버헤이븐(Cyberhaven)의 2024년 조사에 따르면, 직장인의 약 11%가 회사 데이터를 ChatGPT에 입력한 경험이 있으며, 이 중 기밀로 분류되는 데이터가 포함된 비율은 약 3.1%였습니다. 승인 없이 개인적으로 AI 도구를 업무에 활용하는 '섀도우 AI' 현상은 기업 보안의 사각지대로 부상했습니다.

사건 3 · 2026년

국내 기업 AI 사용 제한 조치

카카오와 네이버는 2026년 초 특정 오픈소스 AI 에이전트 도구의 사내망 및 업무 기기 사용을 전면 차단했습니다. 에이전트 OS 환경에서 인증 없이 외부 접근이 가능한 보안 취약점이 발견된 것이 직접적인 계기였습니다. 대기업조차 AI 도구의 보안 위험을 인지하고 사후 대응에 나서는 상황입니다.

이 사건들의 공통점은 명확합니다. 유출의 시작은 항상 '개인이 편의를 위해 회사 데이터를 AI에 입력한 행위'입니다. 악의적 의도가 아니라 업무 효율화 목적이었지만, 결과적으로 기업 기밀이 외부 서버에 저장되고 통제 불가 상태가 되었습니다.

업무 AI 보안 — AI 도구별 데이터 처리 방식 비교

ChatGPT 무료는 학습 기본 ON, Plus/Team은 기본 OFF, Enterprise는 완전 제외입니다. Claude Pro는 기본 OFF + 90일 후 삭제, Gemini 무료는 학습 ON + 최대 18개월 보관입니다. 업무 민감도에 따라 도구를 선택하고 반드시 학습 설정을 확인해야 합니다.

모든 AI 도구가 동일한 수준으로 데이터를 처리하는 것은 아닙니다. 아래 비교표는 2026년 3월 기준 주요 AI 서비스의 데이터 처리 정책을 정리한 것입니다.

구분 ChatGPT 무료 ChatGPT Plus/Team ChatGPT Enterprise Claude Pro Gemini (무료)
모델 학습 사용 기본 ON 기본 OFF 완전 제외 기본 OFF 기본 ON
데이터 보관 삭제 전까지 삭제 전까지 계약 조건 90일 후 삭제 최대 18개월
데이터 암호화 전송 중만 전송 중만 전송+저장 전송+저장 전송 중만
SOC 2 인증 있음 있음 있음 있음 있음
관리자 통제 없음 제한적 전체 가능 제한적 없음

이 비교에서 핵심적인 차이는 모델 학습 사용 여부관리자 통제 가능성입니다. 무료 버전은 기본적으로 입력 데이터가 학습에 사용될 수 있고, 관리자가 팀원의 사용을 통제할 수 없습니다. Enterprise 등급의 유료 서비스는 데이터 학습 완전 제외, 전송·저장 양방향 암호화, 관리자 모니터링 기능을 제공합니다.

ChatGPT Plus는 기본적으로 모델 학습에 데이터를 사용하지 않습니다(기본 OFF). 무료 버전 대비 업무 보안 리스크가 낮으며, 먼저 무료 버전 설정에서 학습 옵션을 끄는 것으로도 기본 위험을 줄일 수 있습니다. 기업 수준의 완전한 보안이 필요하다면 데이터 학습 완전 제외와 전송·저장 암호화를 모두 제공하는 ChatGPT Enterprise를 고려할 수 있습니다. (ChatGPT 요금제 비교 →)

직장인 AI 정보 관리 — 기밀 입력 전 반드시 확인할 것

고객 개인정보, 미공개 재무 데이터, 소스코드, 인사 정보, 계약서는 어떤 AI에도 입력하면 안 됩니다. 기밀 데이터가 포함된 문서를 분석할 때는 실제 값을 [회사명], [금액]으로 교체하는 데이터 마스킹 기법을 사용하면 구조 분석을 안전하게 할 수 있습니다.
현장 경험 |고객사 이름이 포함된 이메일을 정리해달라고 AI에 넣었다가 뒤늦게 "이거 고객 정보 아닌가?"하는 생각이 들었다. 그 이후로 고유명사와 숫자는 무조건 [고객명], [금액]으로 바꾸고 입력한다. 마스킹 습관 하나로 마음이 훨씬 편해졌다.

절대 입력 금지 항목

다음 유형의 데이터는 어떤 AI 도구에도 입력하면 안 됩니다. Enterprise급 서비스라 하더라도 회사 보안 정책에서 허용하지 않는 한 입력을 삼가야 합니다.

절대 입력 금지 — 개인정보보호법 위반 및 기밀 유출 위험

  • 고객 개인정보: 이름, 전화번호, 이메일, 주민등록번호, 카드번호
  • 미공개 재무 데이터: 매출, 영업이익, 원가 구조, 투자 계획
  • 소스코드 및 기술 자산: 핵심 알고리즘, 설계 문서, 특허 출원 전 기술
  • 인사 정보: 직원 평가, 급여 데이터, 징계 기록
  • 계약서 및 법률 문서: NDA, 거래 조건, 소송 관련 자료

안전하게 활용 가능한 범위

기밀 없이 AI 활용 가능한 작업

  • 공개 정보 기반 리서치: "2026년 SaaS 시장 트렌드 정리해줘"
  • 일반 문서 양식 작성: "프로젝트 제안서 목차 구조 만들어줘"
  • 문장 교정 및 번역: 기밀이 없는 일반 업무 문서의 문체 개선
  • 아이디어 브레인스토밍: 전략 방향 검토 시 일반적 질문으로 아이디어 수집
  • 코드 작성 지원: 공개 라이브러리 기반의 일반 코딩 질문

데이터 마스킹 기법

기밀 데이터가 포함된 문서의 구조나 패턴을 AI에게 분석시키고 싶을 때는, 실제 값을 가명으로 교체하는 '데이터 마스킹'을 적용합니다.

입력 금지 (원본)
삼성전자 2분기 매출 74조 원, 영업이익 8.4조 원
담당자: 홍길동 (hong@samsung.com / 010-1234-5678)
↓ 마스킹 후 입력
안전한 입력 (마스킹)
[회사A] 2분기 매출 [금액1], 영업이익 [금액2]
담당자: [이름] ([이메일] / [전화])

이렇게 하면 구조와 패턴은 유지하되 실제 기밀은 노출되지 않습니다. 분석 결과를 받은 뒤 원래 값으로 되돌리면 됩니다.

AI 입력 전 5초 보안 체크

고객 이름·연락처·주민번호가 포함되어 있지 않다
미공개 재무 데이터(매출·원가·투자 계획)가 포함되어 있지 않다
회사 소스코드·기술 문서가 포함되어 있지 않다
데이터 학습 설정을 OFF로 확인했다 (또는 Plus/Enterprise 사용 중이다)
회사 AI 사용 정책을 확인했다 (금지 항목 없음)
0 / 5 완료

회사에서 AI 보안 정책이 없을 때 개인이 할 수 있는 것

회사 보안 정책이 없어도 4가지 개인 조치로 위험을 크게 낮출 수 있습니다: ① 모델 학습 설정 비활성화, ② 업무·개인 계정 분리, ③ 민감 대화 기록 즉시 삭제, ④ VPN 또는 보안 네트워크 사용입니다.

모든 기업이 AI 사용 가이드라인을 갖추고 있지는 않습니다. 특히 중소기업이나 스타트업에서는 별도의 보안 정책 없이 직원 개개인의 판단에 맡기는 경우가 많습니다.

1

모델 학습 설정 비활성화

ChatGPT: Settings → Data Controls → Improve the model for everyone OFF
Gemini: 활동 기록 → Gemini Apps Activity OFF
Claude Pro: 기본적으로 학습 비활용이 기본 설정

2

업무용·개인용 AI 계정 분리

업무 관련 질문은 회사 이메일로 가입한 계정에서만 사용합니다. 이렇게 하면 회사 관련 대화 기록이 개인 계정에 남는 것을 방지할 수 있습니다.

3

대화가 끝나면 기록 즉시 삭제

ChatGPT: 좌측 사이드바에서 개별 대화 삭제 또는 Settings → Data Controls → Clear chat history
민감한 업무 내용을 다룬 대화는 작업이 끝난 즉시 삭제하는 습관이 중요합니다.

4

VPN 또는 보안 네트워크 사용

카페나 공공 와이파이에서 AI 도구를 사용하면 전송 중 데이터가 가로채질 위험이 있습니다. 회사 VPN을 통해 접속하거나 최소한 모바일 데이터를 사용하세요.

자주 묻는 질문

ChatGPT에 입력한 회사 데이터를 삭제하면 완전히 사라지나요? +
대화 기록 삭제는 가능하지만, 이미 모델 학습에 사용된 데이터는 삭제되지 않습니다. 학습에 반영된 정보는 모델 가중치에 녹아들어 특정 데이터만 선별 제거하는 것이 기술적으로 불가능합니다. 따라서 입력 전에 기밀 여부를 판단하는 것이 유일한 예방책입니다.
ChatGPT Plus 유료 버전을 쓰면 회사 데이터가 안전한가요? +
Plus 요금제는 기본적으로 모델 학습에 데이터를 사용하지 않습니다(기본 OFF). 그러나 이것이 완전한 안전을 의미하지는 않습니다. 서버에 대화 기록이 저장되고, 해킹이나 서비스 취약점을 통한 유출 가능성은 여전히 존재합니다. 기업 수준의 보안이 필요하다면 데이터 학습 완전 제외와 전송·저장 암호화를 모두 제공하는 ChatGPT Enterprise 등급을 사용해야 합니다.
회사에서 AI 사용을 금지하면 어떻게 업무 효율을 높일 수 있나요? +
AI 사용 금지는 보통 외부 AI 서비스에 한정됩니다. 회사가 자체 구축한 AI 도구(온프레미스 LLM)가 있다면 그것을 사용하면 됩니다. 자체 도구가 없다면, 기밀이 아닌 일반적 업무(문서 양식 작성, 아이디어 브레인스토밍, 일반 리서치)에 한해 외부 AI를 활용하되, 민감한 데이터는 절대 입력하지 않는 원칙을 세워야 합니다.
AI에 입력한 정보가 다른 사람의 응답에 나올 수 있나요? +
이론적으로 가능합니다. 모델 학습에 사용된 데이터는 특정 조건에서 재생성될 수 있으며, 이를 기억 추출(memorization extraction) 공격이라 합니다. 실제로 연구자들이 GPT 모델에서 학습 데이터를 추출하는 실험에 성공한 사례가 있습니다. 다만, 이런 추출이 우연히 일어날 확률은 낮고 의도적 공격 상황에서 주로 발생합니다.
개인정보보호법상 고객 정보를 AI에 입력하면 처벌받나요? +
개인정보보호법에 따르면, 개인정보를 제3자에게 제공하려면 정보 주체의 동의가 필요합니다. AI 서비스에 고객 정보를 입력하는 행위는 해당 AI 회사(제3자)에 개인정보를 제공하는 것으로 해석될 수 있습니다. 동의 없이 이를 수행하면 법적 처벌 대상이 됩니다. 과태료는 위반 유형에 따라 최대 5천만 원이며, 형사 처벌로 이어질 수도 있습니다.

면책 조항: 이 글에는 제휴 링크가 포함되어 있습니다. 이 링크를 통해 구매/가입 시 필자에게 소정의 수수료가 지급되며, 이는 더 좋은 콘텐츠 제작에 사용됩니다. 가격은 동일하며, 구매 결정에 영향을 주지 않습니다.

최종 업데이트: 2026년 3월 15일

광고 슬롯: content-bottom
광고 슬롯: comments-top

Comments

Comments (0)

Leave a Comment

← Back to List
광고 슬롯: mobile-anchor