소프트웨어 개발 전반에서 생성AI 도입이 확산되면서, 개발 속도는 빨라졌지만 보안은 그 속도를 따라가지 못하는 격차가 커지고 있다. 특히 대규모 언어 모델(LLM)과 코드 자동 생성 도구가 개발 프로세스에 본격적으로 활용됨에 따라, 보안 위협은 정교해지고 대응 체계는 더 복잡해지고 있다. 이에 따라 거버넌스, 보안 교육, 조직 문화 등 다양한 측면에서의 변화가 요구되고 있다.
애플리케이션 보안 교육 기업인 시큐리티 저니(Security Journey)는 이러한 흐름 속에서 발생하는 보안 과제와 이를 극복하기 위한 조직 차원의 대응 전략을 제시하는 보고서 ‘AI 보안 격차 해소’를 발표했다. 이 보고서는 AI 기술 도입이 소프트웨어 보안에 미치는 영향을 다양한 각도에서 조망하고 있다.
생성AI 도입 가속과 보안 대응 간 불균형
시큐리티 저니는 보고서에서 생성AI를 활용한 소프트웨어 개발이 빠르게 확산되면서, 보안 팀과 개발자 간의 역할 및 책임 배분의 변화가 일어나고 있음을 지적했다. 특히 AI 기반 코드 생성 툴을 사용하는 개발자들이 그에 따른 보안 위협을 충분히 이해하지 못하거나, 기업 내부의 보안 가이드라인 없이 AI를 활용하는 경우가 많아 섀도우 AI 활용에 따른 위협이 증가하고 있다고 밝혔다.

보고서에 참여한 보안 전문가들은 실제로 AI가 소프트웨어 라이프사이클 전반에서 중대한 영향을 미치고 있음에도 불구하고, 이를 보호할 정책이나 인프라가 여전히 미비하다는 점에 주목했다. 이들은 개발자가 보안을 고려하지 않은 채 AI 생성 코드를 도입하는 일이 잦아지고 있다고 분석했다.
조직의 대응 과제: 거버넌스, 교육, 문화적 전환
보고서는 생성AI와 같은 기술을 안전하게 도입하기 위해 조직이 수행해야 할 구체적인 전략을 다섯 가지 핵심 영역으로 제시했다.
첫째, 거버넌스는 현실을 반영해야 한다고 강조했다. 많은 기업들이 내부 AI 정책을 수립하고 있으나, 실제 개발 현장에서의 기술 활용 방식과 괴리가 커 정책이 실효성을 갖기 어렵다는 점을 지적했다. 이로 인해 섀도우 AI 사용이 늘어나고 위험은 오히려 증가한다고 설명했다.
둘째, 개발자에 대한 지원 확대가 필요하다고 강조했다. AI 도구는 개발자에게 더 많은 의사결정 권한을 부여하지만, 그에 상응하는 보안 역량을 갖춘 인재는 부족하다는 점에서 사전 예방적 교육이 절실하다고 밝혔다.
셋째, 보안 문화를 기술 발전에 맞춰 재정립할 필요가 있다고 지적했다. 보안이 일회성 활동이 아닌 일상 업무로 자연스럽게 통합될 수 있도록, 조직 내부에서 명확한 원칙과 지지 구조가 마련돼야 한다고 설명했다.
넷째, AI는 개발 역량의 양극화를 심화시키고 있다고 분석했다. 생성AI 도구에 대한 과도한 의존은 신입 개발자들의 경험 축적 기회를 감소시키며, 장기적인 전문성 단절의 우려를 키우고 있다고 밝혔다.
다섯째, 당분간 보안은 더 나빠질 수 있다는 점을 경고했다. 위협 행위자들은 이미 AI 생성 코드의 취약점을 악용하고 있으며, 이에 대한 기업들의 대응은 아직 미흡하다는 것이다. 이에 따라 향후 일정 기간 동안 보안 사고가 증가할 수 있으며, 철저한 테스트와 교육 강화가 필요하다고 밝혔다.
시큐리티 저니의 앱섹 어드보케이트(AppSec Advocate) 더스틴 레어(Dustin Lehr)는 “이것은 도구의 문제가 아니라 사람의 문제다”고 말하며, 기술 도입과 병행한 문화적·교육적 개선의 필요성을 강조했다. 그는 “AI는 소프트웨어 개발 방식을 빠르게 바꾸고 있지만, 보안 책임은 여전히 개발자에게 있다. 정책만으로는 부족하며, 조직은 교육, 지원, 문화를 포함한 포괄적 접근이 필요하다”고 말했다.
이어 그는 “이 보고서는 단순히 문제를 지적하는 것이 아니라, 현실적인 해결 로드맵을 제시한다”며, 조직이 AI 기술을 안전하게 활용하기 위한 실행 전략 마련의 필요성을 재차 강조했다.
시큐리티 저니는 이번 보고서를 통해 기술의 발전 속도에 맞는 보안 대응 체계 마련을 촉구하고 있다. AI 기술이 기존의 보안 프레임워크를 빠르게 무력화할 수 있는 잠재력을 갖고 있는 만큼, 개발자와 보안 조직, 경영진이 모두 참여하는 전방위적인 대응이 요구된다고 밝혔다. 또한 AI 기반 개발 시대에 보안 문화는 선택이 아닌 필수이며, 교육을 통한 체계적인 보안 내재화가 궁극적인 해법임을 강조했다.
관련기사
- AI 기반 사이버 위협 고도화, 방어 전략도 AI 중심으로
- AI 도입 기업용 실전형 보안 전략...레드팀 기반 방어 필수화
- 2분기 사이버 보안 자금 투자 25% 증가...검증된 기업에 대규모 투자 집중
- AI 기반 공격 확산, 제로 트러스트 미도입 조직, 보안 위기 노출
- 산업시설 겨냥한 AI 위협 확산, 산업 현장용 실습형 보안 플랫폼 등장
- "AI 기반 통합 보안 플랫폼, MSS·MDR 시장 재편 이끈다"
- 트렌드마이크로, 생성AI 기반 보안 도구 확대 속 AI 위협 환경 고도화 경고
- 상황 인식 기반 생성AI 보안 전용 플랫폼...AI 위협 실시간 대응
- “AI·규제 시대의 필수 보안, ‘이메일 암호화 시장’ 연 20.2% 고성장”
- 체크포인트, AI 위협 방지 성능 4배 강화된 보안 게이트웨이 출시
- 급증하는 모바일 AI 위협, 에이전틱 AI 맬웨어 실시간 탐지 기술로 대응
- "AI 기반 사이버 위협 대응, 조직 내 인식 격차가 보안 리스크로 부상"
- 딥페이크 위협에 맞서는 ‘AI 사기 탐지 플랫폼’
- A10 네트웍스, AI 및 LLM 추론 최적화 고성능 보안 인프라 기술
- “AI 위협과 클라우드 리스크 대응 최적 전략, SECaaS 통합 보안”
- 특정 생성AI 차단 확산세..기업의 섀도우 AI 위협 대응 전략
- AI 위협 선제적 대응하는 패치 및 데이터 보안 관리 서비스
- 자동화로 수익 극대화하는 ‘에이전트형 AI 랜섬웨어’ 방지법
- AI 잠재력 활용 극대화 전략 "가시성· 행동·실제 지표"
- 기업 AI 도입 79%·AI 보안 전략 6%로 격차 심화...보안 현대화 시급
- 생성AI 시대, IT 관리 효율화 위해 전략적 도입과 교육 필수
- 지아 LLM·사전 구축형 에이전트·사용자 맞춤형 에이전트 빌더·MCP·마켓플레이스 통합...업무 자동화·데이터 활용 강화
- 100% 해킹되는 생성AI와 에이전틱AI...위협 모델링과 침투 테스트로 대비
- 생성AI 확산 속 섀도우 AI 급증, 기업 보안 적신호...실시간 거버넌스 시급
- 섀도 AI 모델 위험 식별...실시간 탐지·대응으로 기업 보안 강화
- [기고문] 섀도 AI, 거버넌스와 가시성 없이는 관리할 수 없다
- 섀도AI 차단 ‘생성AI 보안·거버넌스 플랫폼’...기업 생존 필수 전략
- AI AppSec 스캐닝, AI 코드 어시스턴트 보안 취약점까지 잡는다
- 사이버 인재 선순환, 산업계 보안 역량 강화의 핵심으로
- [기고]데이터보다 중요한 것은 사고의 구조...체계적 사고가 만드는 지속 가능한 성과
