AI 투명성: “개방성”의 진정한 의미, Endor Labs의 전문가 분석
AI 산업이 빠르게 성장하면서, 투명성과 보안에 대한 논의가 중요해지고 있습니다. 특히, “개방성(Openness)”이란 용어가 AI 모델과 시스템에 어떻게 적용되는지에 대한 논쟁이 뜨겁습니다.
이와 관련해 오픈소스 보안 회사인 Endor Labs의 전문가들이 AI 투명성과 오픈소스 모델의 진정한 의미에 대해 심층적인 분석을 제공했습니다.
또한, 중국의 AI 스타트업 DeepSeek이 투명성을 강화하기 위해 모델과 코드를 오픈소스로 공개한 사례도 주목받고 있습니다.
이 기사에서는 Endor Labs의 전문가들이 제시한 AI 투명성의 중요성, 오픈워싱(Open-Washing)의 위험성, 그리고 DeepSeek의 투명성 이니셔티브를 통해 AI 산업이 나아가야 할 방향을 탐구합니다.
또한, AI 모델의 위험을 체계적으로 관리하는 방법과 책임 있는 AI 개발을 위한 전략을 제안합니다.
3줄 요약
AI 투명성은 모델의 모든 구성요소(데이터셋, 가중치, 훈련 프로그램 등)를 공개하는 진정한 개방성을 의미하며, 현재 업계에는 ‘오픈’의 정의에 일관성이 부족하다.
Endor Labs 전문가들은 소프트웨어 보안의 원칙(SBOM 등)을 AI 시스템에 적용해 투명성을 강화해야 한다고 주장하며, DeepSeek의 모델과 코드 공개는 좋은 사례로 평가된다.
오픈소스 AI 모델 사용이 증가함에 따라 발견, 평가, 대응의 체계적인 위험 관리 접근법이 필요하며, 혁신과 책임 사이의 균형을 찾는 것이 중요하다.

AI 투명성의 중요성: Endor Labs의 시각
Endor Labs의 수석 제품 마케팅 관리자인 앤드류 스티펠(Andrew Stiefel)은 소프트웨어 보안에서 얻은 교훈이 AI 시스템에도 적용되어야 한다고 강조했습니다.
그는 특히 미국 정부의 2021년 사이버 보안 개선 행정 명령을 언급하며, 이 명령이 각 조직이 연방 정부 기관에 판매된 제품에 대한 소프트웨어 구성표(SBOM, Software Bill of Materials)를 작성하도록 요구한다는 점을 지적했습니다.
SBOM은 제품 내의 오픈소스 구성 요소를 상세히 설명하는 인벤토리로, 취약성을 탐지하고 보안을 강화하는 데 중요한 역할을 합니다.
Stiefel은 “이와 동일한 원칙을 AI 시스템에 적용하는 것이 논리적인 다음 단계”라고 주장했습니다.
AI 모델의 데이터 세트, 훈련 방식, 가중치 및 기타 구성 요소에 대한 투명성이 높아지면 보안이 강화될 뿐만 아니라, 시민과 공무원이 AI 시스템을 더 잘 이해하고 신뢰할 수 있게 된다는 것입니다.
AI 모델의 ‘개방성’이란 무엇인가?
AI 모델이 “개방적”이라는 것은 무엇을 의미할까요?
Endor Labs의 수석 제품 관리자인 줄리앙 소브리어(Julien Sobrier)는 이 질문에 대한 답을 찾기 위해 AI 시스템의 복잡성을 분석했습니다.
그는 AI 모델이 훈련 데이터 세트, 가중치, 훈련 및 테스트 프로그램 등 다양한 구성 요소로 이루어져 있다고 설명했습니다.
소브리어는 “모델을 ‘오픈’이라고 부르려면 전체 체인을 오픈 소스로 제공하는 것이 중요하다”라고 강조했습니다.
그러나 현재 업계에서는 ‘오픈’의 정의가 모호하며, 주요 기업 간에 일관성이 부족한 상황입니다.
예를 들어, OpenAI는 ‘개방적’이라는 브랜드를 사용하지만, Meta는 LLAMA 모델을 통해 더욱 개방적인 접근 방식을 시도하고 있습니다.
소브리어는 이러한 불일치로 인해 ‘오픈워싱(Open-Washing)’이라는 현상이 발생할 수 있다고 경고했습니다. 오픈워싱은 조직이 제한을 가하면서도 투명성을 주장하는 관행을 말합니다.
예를 들어, 클라우드 공급업체가 오픈소스 프로젝트의 유료 버전을 제공하면서도 코드 기여를 하지 않는 경우가 여기에 해당합니다.
DeepSeek: AI 투명성 강화를 위한 모범 사례
AI 산업에서 논란의 여지가 있지만 주목받는 플레이어 중 하나인 DeepSeek은 모델과 코드 일부를 오픈소스로 공개하며 투명성을 강화하고 있습니다.
이러한 움직임은 보안 통찰력을 제공하고, 커뮤니티가 모델을 감사하고 개선할 기회를 제공한다는 점에서 칭찬을 받고 있습니다.
앤드류 스티펠은 “DeepSeek은 이미 모델과 가중치를 오픈소스로 출시했으며, 호스팅 서비스에 대한 투명성을 높이고 있다”고 설명했습니다.
이는 프로덕션 환경에서 모델을 미세 조정하고 실행하는 방법에 대한 가시성을 제공함으로써, 보안 위험을 줄이고 커뮤니티의 참여를 촉진하는 데 도움이 됩니다.
또한, DeepSeek은 Docker, Kubernetes(K8s), 인프라 즉 코드(IaC)와 같은 도구를 사용하여 대규모 AI 인프라를 관리하는 방법에 대한 로드맵을 제공합니다.
이러한 접근 방식은 스타트업과 개인 개발자들이 유사한 호스팅 인스턴스를 구축하는 데 도움이 될 수 있습니다.
오픈소스 AI의 부상과 위험 관리
DeepSeek의 투명성 이니셔티브는 오픈소스 AI에 대한 더 광범위한 추세와 일치합니다.
IDC의 보고서에 따르면, 조직의 60%가 생성 AI(GenAI) 프로젝트에 상업적 대안보다 오픈소스 AI 모델을 선택하고 있습니다.
Endor Labs의 조사에 따르면, 조직은 애플리케이션당 평균 7~21개의 오픈소스 모델을 사용하며, 이는 특정 작업에 적합한 모델을 활용하고 API 비용을 제어하기 위한 전략입니다.
그러나 오픈소스 AI 모델의 채택이 증가함에 따라, 해당 모델의 종속성과 잠재적 위험을 평가해야 할 필요성도 커지고 있습니다.
소브리어는 “AI 모델을 소프트웨어가 의존하는 주요 종속성으로 보아야 한다”라고 강조했습니다.
기업은 이러한 모델을 사용할 수 있는 법적 허가를 받았는지 확인해야 할 뿐만 아니라, 운영 위험 및 공급망 위험 측면에서 안전하게 사용할 수 있는지도 검토해야 합니다.
AI 모델 위험 관리: 체계적인 접근 방식
오픈소스 AI 도입이 가속화됨에 따라, 위험 관리는 더욱 중요해지고 있습니다. 스티펠은 다음과 같은 세 가지 핵심 단계를 중심으로 한 체계적인 접근 방식을 제안했습니다.
발견: 조직에서 현재 사용 중인 AI 모델을 감지합니다.
평가: 보안 및 운영상의 문제를 포함하여 잠재적인 위험을 파악하기 위해 이러한 모델을 검토합니다.
대응: 안전하고 보안 측면인 모델 채택을 보장하기 위해 보호 장치를 설정하고 시행합니다.
“핵심은 혁신을 가능하게 하고 위험을 관리하는 것 사이에서 적절한 균형을 찾는 것입니다.”라고 스티펠은 말했습니다.
“소프트웨어 엔지니어링 팀에 실험할 수 있는 자유를 주어야 하지만, 완전한 가시성을 가지고 그렇게 해야 합니다. 보안 팀에는 시야와 행동할 수 있는 통찰력이 필요합니다.”
책임 있는 AI 미래를 위한 조치
AI의 책임 있는 성장을 보장하기 위해 업계는 여러 벡터에 걸쳐 작동하는 통제를 채택해야 합니다.
이에는 SaaS 모델, API 통합, 오픈소스 모델 등이 포함됩니다. 소브리어는 “커뮤니티는 안전하고 개방적인 AI 모델을 개발하기 위한 모범 사례를 구축해야 한다”라고 조언했습니다.
또한, 보안, 품질, 운영 위험 및 개방성에 따라 AI 모델을 평가하는 공유 방법론이 필요합니다.
결론
AI 산업이 성장하면서, 투명성과 보안은 더욱 중요한 화두가 되고 있습니다.
Endor Labs와 DeepSeek은 이러한 문제에 대한 해결책을 제시하며, 오픈소스 AI 모델의 잠재력을 극대화하고 위험을 관리하는 방법을 보여주고 있습니다.
AI의 미래는 혁신과 책임의 균형에 달려 있으며, 업계 전체가 협력하여 안전하고 투명한 AI 생태계를 구축해야 할 것입니다.
FAQ
AI 투명성에서 "개방성"의 진정한 의미는 무엇인가요?
AI 모델의 모든 구성요소(데이터셋, 가중치, 훈련 프로그램 등)를 공개하는 것을 의미하며, 현재 업계에서는 이 정의가 모호하고 일관성이 부족합니다.
오픈워싱(Open-Washing)이란 무엇이고, 왜 위험한가요?
오픈워싱은 제한을 두면서도 투명성을 주장하는 행위로, 신뢰를 저하할 수 있어 위험합니다. 예: 클라우드 업체가 오픈소스라 주장하며 기여는 하지 않는 경우.
DeepSeek의 AI 투명성 이니셔티브가 주목받는 이유는 무엇인가요?
DeepSeek은 모델과 코드를 오픈소스로 공개해 보안 통찰력을 제공하고, 커뮤니티가 모델을 감사·개선할 기회를 주기 때문입니다.
AI 모델의 위험 관리를 위해 어떤 체계적인 접근이 필요한가요?
발견(사용 중인 모델 감지), 평가(위험 검토), 대응(보호 장치 설정)의 3단계로 접근해야 하며, 혁신과 위험 관리의 균형이 중요합니다.
책임 있는 AI 개발을 위해 업계가 해야 할 일은 무엇인가요?
보안·품질·운영 위험·개방성을 평가하는 공유 방법론을 구축하고, SaaS·API·오픈소스 모델 전반에 걸친 통제를 채택해야 합니다.
Login
Register