logo_gazelle_rag

Private LLM 기반 기업전용 검색증강생성 솔루션

Gazelle RAG

신뢰할 수 있는 LLM 도입을 시작해보세요

Features

프라이빗 LLM 기반의 안전한 질의응답 솔루션, 가젤 RAG

가젤 RAG는 안전한 폐쇄망 환경에서 내부 데이터를 기반으로 파인튜닝된 프라이빗 LLM을 통해 질문에 대한
정확한 답변을 제공하는 질의응답 솔루션입니다.

feature icon

내부 데이터의 유출이 걱정돼

데이터 보안 이슈 해결

안전한 폐쇄망 환경 내 온프레미스 구축이 가능하며, 프라이빗 LLM을
통해 내부 데이터의 외부 유출 위험을 원천적으로 차단합니다.

feature icon

사실과 다른 답을 하면 어떻게 하지?

할루시네이션 최소화

고객의 데이터를 기반으로 임베딩 모델 및 LLM을 파인튜닝 한 후,
RAG 기술을 적용하여 신뢰할 수 있는 정보만을 제공합니다.

feature icon

우리의 업무를 잘 이해하고 있나?

도메인 특화 RAG

고객의 문서 구조, 전문용어와 같은 각 도메인별 특성을 사전 분석하여,
문서 분할 및 자동 분류 등이 적용된 도메인 특화 RAG를 구현합니다.

feature icon

새로운 정보도 계속 반영할 수 있을까?

최신 데이터 기반 응답 제공

신규 추가된 데이터는 실시간으로 벡터 인덱스로 변환 후 벡터 DB에
저장하여 항상 최신의 정보를 유지할 수 있도록 지원합니다.

feature icon

우리가 보유한 데이터로도 가능할까?

다양한 데이터 유형 지원

고객이 보유하고 있는 PDF, Word, Excel, HWP 등 다양한 문서
형식을 지원하여, 빠르게 LLM을 도입할 수 있습니다.

feature icon

높은 AI 인프라 비용이 부담돼

효율적인 자원 관리

기업 데이터 맞춤형 경량모델 지원 및 자원의 효율적인 운영에
최적화된 LLM 파이프라인을 통해 비용 대비 효과를 극대화합니다.

Service Process

데이터 전처리부터 모델 서빙까지 전 과정 지원합니다.

service_process service_process service_process
s

Use Case

가젤 RAG는 AI를 활용한
비즈니스 혁신에 기여합니다.

  • use_case
    법률/법령 질의응답
    다양한 법률과 법령, 사례 등을 기반으로 한 질의응답을 통해 관련 업무를 간소화합니다.
  • use_case
    업무매뉴얼/규정 질의응답
    각종 매뉴얼과 규정 등에 대한 빠른 질의응답을 통해 고객 서비스 품질을 향상시킬 수 있습니다.
  • use_case
    논문/보고서 질의응답
    방대한 논문 및 보고서를 빠르게 분석 · 추출하여, 깊이 있는 연구를 가능하게 합니다.
  • use_case
    내부지식 기반 질의응답
    기업 내 지식을 활용해 정확한 답변을 답변을 제공함으로써 업무 효율과 성과를 높여줍니다.

FAQ

자주 묻는 질문

  • Q. 구축형으로 도입할 수 있나요?
    네, 가능합니다. 가젤 RAG는 설치가능한 프라이빗 LLM을 기반으로 한 서비스로 고객의 인프라 환경 내에 구축할 수 있습니다.
    chevron-down
  • Q. 가젤 RAG의 기반모델은 무엇인가요?
    Meta Llama 3.1 같은 다양한 파운데이션 LLM 중 고객의 서비스와 목적에 맞는 모델을 선정한 뒤, 자체기술로 파인튜닝하여 최적화된 모델을 제공합니다.
    chevron-down
  • Q. 도입하려면 GPU서버를 보유해야 하나요?
    네, LLM을 활용한 질의와 응답을 처리하기 위해 GPU 서버가 필요합니다. 동시사용자 수와 모델 크기 등 조건에 따라 달라질 수 있지만 A100(40GB) 1대 이상의 GPU 인프라 환경을 추천합니다. 
물론 클라우드 서비스의 인프라 이용도 가능하지만 이 경우 외부망을 이용해야 한다는 점을 고려해야 합니다.
    chevron-down
  • Q. 초기 데이터는 어떻게 준비하나요?
    가젤 RAG는 PDF, Word, Excel, HWP 등 다양한 형식의 고객 데이터를 활용하여 데이터셋을 구축할 수 있으며, 이에 필요한 데이터 수집, 분석, 가공의 전과정을 지원합니다.
    chevron-down
  • Q. 도입 후 추가 데이터의 반영과 서비스 운영은 어떻게 이루어지나요?
    안정적인 LLM 서비스의 운영을 위해서는 증분 데이터에 대한 지속적인 반영과 사용량 증가에 따른 오토스케일링, 모니터링 등을 위한 효과적인 관리체계가 필요합니다.
    Gazelle RAG는 당사의 LLMOps 플랫폼 “치타”를 활용하여 이를 해결합니다.
    chevron-down
AI 도입을 위한 최적의 방안을 제안드리겠습니다.