
공공기관 AI LLM(대형 언어 모델, Large Language Model)사용 문제점은?
최근 공공기관 AI , LLM(대형 언어 모델, Large Language Model)등을 이용하여 업무 효율성을 향상하고 새로운 정책이나 행정에 이용하려는 아이디어를 이야기 하는곳이 많습니다.
공공기관이 LLM(대형 언어 모델), AI 모델등을 사용할 때 발생할 수 있는 위험 요소와 그로 인해 사용을 제한해야 하는 이유는 다음과 같습니다.
LLM (Large Language Model) 이란?
LLM(대형 언어 모델, Large Language Model)은 대량의 텍스트 데이터를 학습하여 사람처럼 자연스러운 언어를 이해하고 생성할 수 있는 인공지능(AI) 모델입니다. 이 모델은 딥러닝(Deep Learning)과 자연어 처리(NLP, Natural Language Processing) 기술을 기반으로 구축되며, 질문에 답변하거나 문서를 요약하고, 코드를 생성하는 등 다양한 작업을 수행할 수 있습니다.
대표적인 LLM 모델
1) GPT 계열 (Generative Pre-trained Transformer)
- GPT-3.5 / GPT-4 (OpenAI): 가장 널리 사용되는 언어 모델, ChatGPT 기반
- GPT-4 Turbo: 속도 및 비용 최적화된 최신 버전
2) Google 모델
- BERT (Bidirectional Encoder Representations from Transformers): 검색 및 질문 응답 최적화
- Gemini (구 Bard): Google의 최신 LLM, 검색 엔진 및 업무 지원 AI
3) Meta (Facebook) 모델
- LLaMA (Large Language Model Meta AI): 경량화된 오픈소스 LLM, 연구 및 기업에서 사용 가능
4) 오픈소스 및 기타
- Claude (Anthropic): 안전성 중심 AI
- Mistral / Falcon / MosaicML: 오픈소스 기반 LLM
1. 데이터 보안 및 개인정보 보호 문제
✅ 민감 데이터 유출 위험
- 공공기관은 국민의 개인정보 및 국가 기밀을 다루기 때문에, LLM을 사용할 경우 입력된 데이터가 AI 모델에 저장되거나 외부로 전송될 가능성이 있음.
- 특히, 클라우드 기반 LLM(AWS Bedrock, OpenAI API 등)은 데이터를 해외 서버에서 처리하기 때문에 국가 보안 정책과 충돌할 수 있음.
✅ GDPR, 개인정보보호법 등 규제 준수 문제
- 공공기관은 개인정보보호법(PIPL, GDPR, CCPA 등)을 준수해야 하지만, LLM이 데이터를 학습하거나 보관하는 방식이 이를 위반할 가능성이 높음.
- 특히, AI 모델이 개인정보를 기억하거나 불완전한 삭제 기능을 가질 경우 법적 문제가 발생할 수 있음.
2. AI의 신뢰성과 조작 가능성
✅ AI의 사실 왜곡 및 잘못된 정보 제공
- LLM은 학습 데이터에 기반하여 응답을 생성하는데, 가짜 뉴스나 편향된 데이터를 학습할 경우 잘못된 정보를 제공할 가능성이 큼.
- 공공기관에서 AI가 제공하는 정보가 공식적인 정책 결정에 영향을 미칠 경우, 국민들에게 혼란을 초래할 수 있음.
✅ 프롬프트 인젝션 및 조작 가능성
- 해커가 특정 프롬프트(입력 문장)를 조작하여 정부 문서 위조, 공공 정보 변조, 내부 데이터 유출 등의 공격을 감행할 수 있음.
- 예를 들어, AI에게 “정부 지원 정책에 대한 최신 정보를 제공해줘”라고 요청했을 때 악의적으로 조작된 정보를 반환할 수 있음.
3. AI 의존으로 인한 정책 오류 및 책임 문제
✅ 정책 결정의 책임 회피 가능성
- 공공기관은 정책을 결정할 때 객관적이고 공정한 절차를 따라야 하지만, AI의 추천 결과를 신뢰할 경우 책임 소재 불분명 문제가 발생할 수 있음.
- 예: “데이터 기반의 학습과 통계등 다각적으로 AI가 분석하고 추천한 정책이었기 때문에 결정했다”라는 식의 책임 회피가 가능함. –> 실제 분석과 추천에 대한 적합성 검증은?
✅ AI의 편향성 및 공정성 문제
- LLM은 훈련 데이터에 따라 편향(Bias)을 가질 수 있으며, 특정 집단에게 불리한 결정을 내릴 가능성이 있음.
- 공공기관은 모든 국민에게 공정해야 하지만, AI의 편향된 판단으로 인해 불평등한 행정 처리가 이루어질 위험이 있음.
4. 외국 기업 종속 및 공급망 공격
✅ 해외 AI 기업(빅테크) 의존 문제
- 현재 LLM 기술은 OpenAI(미국), Google(미국), Microsoft(미국), Baidu(중국) 등의 해외 기업이 주도하고 있음.
- 공공기관이 해외 AI 서비스를 사용하면 데이터 주권(Data Sovereignty) 문제가 발생하여 국가의 핵심 데이터가 외국 기업에 종속될 위험이 있음.
✅ AI 공급망 공격(Supply Chain Attack)
- AI 모델이 업데이트될 때 악의적인 코드나 백도어가 포함될 가능성이 있음.
- 공공기관이 외부 AI 모델을 사용하다가 해킹, 데이터 변조, 사이버 공격에 노출될 경우 국가 안보에 위협이 될 수 있음.
5. 윤리적 문제 및 국민 신뢰 하락
✅ 국민의 알 권리 및 투명성 부족
- AI 모델이 어떤 기준으로 정책을 추천하는지 **설명 가능성(Explainability)**이 부족함.
- 공공기관의 정책 결정 과정이 AI에 의해 자동화될 경우 국민들이 정책 결정 과정에 대한 신뢰를 잃을 위험이 있음.
✅ 고용 감소 및 행정 서비스 자동화로 인한 부작용
- LLM 도입으로 인해 공무원의 업무가 자동화되면서 일자리 감소, 행정 서비스의 비인간화 문제가 발생할 수 있음.
- 공공기관의 역할이 AI로 대체될 경우 국민들이 정부 기관에 대한 불만을 가질 가능성이 있음.
결론: 공공기관이 LLM AI를 사용할 때 주의해야 할 점
✅ 공공기관은 국민의 개인정보와 국가 기밀을 보호해야 하며, AI가 제공하는 정보의 정확성, 신뢰성, 공정성을 검증할 책임이 있음.
✅ AI 모델이 해외 기업에 의해 운영될 경우 데이터 주권 침해, 사이버 보안 위협, 정책 의존성 증가 등의 문제가 발생할 가능성이 큼.
✅ 따라서, 공공기관이 LLM을 사용하려면 국내 AI 모델 개발, 보안 강화, 윤리적 가이드라인을 마련한 후 점진적으로 도입해야 함.
즉, 무분별한 LLM 도입은 위험하며, 국가 차원의 AI 보안 정책과 공공용 LLM 모델 개발이 필수적입니다.