이미 일부 대기업은 생성형 AI 전반에 대해 보수적인
.성범죄변호사 입장을 유지해 왔다. 삼성전자와 SK하이닉스 등은 2023년 챗GPT 열풍 이후 외부 AI 모델의 사내망 접근을 원칙적으로 제한하고 있어, 오픈클로에 대한 별도 공지 없이 기존 정책을 유지하는 것으로 전해졌다. 보안 우려는 실제 사례에서도 확인된다. 오픈소스 악성코드를 추적하는 단체 '오픈소스맬웨어'가 최근 오픈클로의 기능 공유 플랫폼을 분석한 결과, 수백 개의 악성 스킬이 발견됐다. 겉으로는 생산성 도구처럼 보이지만 실제로는 정보 탈취를 목적으로 설계된 코드들이 포함돼 있었다는 의미다. 해외에서도 경고가 잇따른다. 중국에서는 설정이 부적절할 경우 심각한 보안 위험을 초래할 수 있다는 주의가 나왔고, 마이크로소프트 AI 안전팀 역시 기업 환경에 투입하기엔 보호 장치가 충분하지 않다고 평가했다. 뉴욕대 저스틴 캐포스 교수는 "AI 에이전트에 컴퓨터 제어 권한을 주는 것은 어린아이에게 칼을 쥐여주는 것과 같다"고 비유했다. 업계에서는 AI 에이전트 기술이 빠르게 발전하는 만큼 기업용 보안 기준과 검증 체계도 함께 정교해져야 한다는 목소리가 나온다. 오픈클로가 보여준 편의성과 가능성은 분명하지만, '자비스'에 가까운 미래를 현실에 적용하기에는 아직 넘어야 할 안전 장벽이 많다는 지적이다.