생성AI의 기능은 놀랍지만 그 단점은 기업에 심각한 위험을 초래한다. 편견을 제거하고 환각을 줄이는 것부터 안전을 강화하고 개인 정보 보호 문제를 제거하는 것까지 염려되는 것이 한 두가지가 아니다.
생성AI 및 AI 분야의 글로벌 기업 아밀라 AI(Armilla AI)는 기업이 생성AI 모델을 안전하게 배포할 수 있도록 지원하는 지능형 방화벽 오토가드(AutoGuard)를 출시했다.
이 방화벽은 잠재적인 피해로부터 사용자와 기업 모두를 보호하는 안전하고 책임감 있는 엔터프라이즈급 생성 AI 솔루션을 배포하기 위한 솔루션이다.

오토가드는 오토얼라인(AutoAlign) 생성AI 플랫폼의 두 번째 제품으로 오토튠(AutoTune)에 포함됐다. 둘 다 자동 피드백 미세 조정을 통합한 동일한 오토얼라인 프레임워크를 사용하며 개인정보 보호, 기밀 정보 유출 방지, 성별 추정, 탈옥 보호 및 인종 편견 감지와 같은 기성 제어 라이브러리가 함께 제공되거나 맞춤화될 수 있다. 특정 정렬 컨트롤을 사용해 고객이 AI 모델의 작동 방식을 자연어 설명으로 표현하여 적용할 수 있다.
오토가드 솔루션은 자체 데이터를 생성할 수 있으며 기업이 AI 모델의 작동을 요청한 방식에 따라 자동화된 피드백을 사용하여 고객의 가드레일을 미세 조정할 수 있다. 프로세스 전반에 걸쳐 아밀라의 자체 AI는 대상 모델의 목표 이해, 모델 동작의 경계를 캡처하기 위한 데이터 생성, 반복 테스트, 약점 발견, 최종적으로 자체 가드레일 모델 강화 등 일련의 단계를 통해 오토가드를 조정한다.
그 결과 생성 AI를 배포하는 동안 더욱 안전하고 신뢰할 수 있으며 윤리적으로 만드는 사용자 친화적인 플랫폼이 탄생했다. 오토가드는 현재 HR 프로세스에 생성AI를 적용하지만 솔루션에 공정성을 요구하는 HR 소프트웨어 회사, 책임 있는 생성 AI 솔루션을 개발하려는 금융 기관, 기밀 및 민감한 데이터를 다루는 컨설팅 회사 등 다양한 산업에서 활용되고 있다.
람 하피즈(Rahm Hafiz) 아밀라 CTO는 "업계에서는 생성 AI가 확장됨에 따라 이러한 모델이 안전하게 작동하도록 런타임에 보호 기능을 제공해야 한다는 요구가 커지고 있다. 자체 테스트와 고객 및 업계 전문가의 피드백을 바탕으로 기업은 규정을 준수하려면 이러한 가드레일이 필요하다."라며, "우리의 접근 방식은 구문 기반 가드레일이나 기존의 미세 조정보다 더 강력하며 기업이 모델을 시장에 출시할 때 안전하고 안정적인 배포를 확장하는 데 중요하다."고 강조한다.
관련기사
- AI 기반 합성 미디어에 대한 우리의 자세
- AI 윤리를 탐색하는 방법
- 이제는 AI 법에 주목해야 할 때
- “경제 성장을 위한 실용적이고 윤리적인 AI 법 필요”
- 책임 있는 AI에 대한 조직 대응법
- 인간에게 안전하고 유익한 ‘AI 거버넌스’ 연평균 35.6% 폭풍성장
- 책임 있는 AI 발전에 협력하는 기업들
- 클라우드 네이티브 컨테이너 보안 솔루션 'SGA솔루젼즈 cAegis'
- 사이버 공격, 최선의 방어책은 ‘보안 인식 높은 인간’
- 보안 위협 원천봉쇄하는 오픈소스 방화벽·거버넌스 자동화 전략
- AI 기반 보안 서비스, 데이터센터 318% ROI, 6개월 내 투자금 회수
- “클라우드 네이티브 환경의 근간 이루는 API에 대한 관리와 보호가 필요하다”
- 싸고 간편한 올인원 앱 ‘벙커’ 개인과 업무관리 시간↓보안성↑
- 생성AI와 지능형 자동화로 빨라지는 금융 범죄 수사
- 기업 60%, 생성AI 관련 ‘보안·오용’ 사고 경험
- “대다수 기업, 생성AI 보호에 데이터 보안 플랫폼 활용”
- [2024년 전망] 주목해야 할 사이버 보안 5대 트렌드
- 생성AI로 인한 데이터 보안 우려 ‘생성AI DLP’로 해결
- 기업 71%, 사이버 범죄 증가에도 물리 보안에 AI 통합 안해
- 2024년 "AI 기반 보안 위협 대비" 최우선
