안녕하세요.
담당 매니저 김수민입니다.
기간제(상주) 프로젝트 희망 근무 시작일을
등록해 주시면, 파트너님의 일정에 맞는
적합한 프로젝트를 추천해 드려요.
플러스
다양한 LLM 환경 대응을 위한 모듈형 RAG 파이프라인 평가 시스템 구축
개발 · 기획
웹 · 기타
Gen AI 서비스, ChatGPTㆍ챗봇, 내부 시스템 운영
프로젝트 배경
1. 문제점 • LLM 응답 품질은 Retrieval 방식, Prompt 구성, Generator 선택에 따라 매우 달라지지만, 이를 체계적으로 실험/비교할 수 있는 툴이 부재 • 다양한 모듈 조합을 실험하려면 수작업 설정 및 수기 비교가 필요해 시간과 리소스 낭비가 큼 • 테스트 결과를 대시보드로 시각화하거나 최종 결과를 실서비스에 연결할 수 없음 2. 목표 • 모듈형 RAG 파
프로젝트 성과
RAG 구성 실험 시간 단축
다양한 조합 실험이 자동화되어 기존 수작업 대비 소요 시간이 수일에서 수분으로 단축됨
AI 연구 생산성 향상
RAG 테스트 자동화로 연구 효율성 3배 이상 향상, 반복 실험 시 소요 리소스 최소화
실서비스 배포 속도 개선
챗봇 배포 자동화 기능 구현으로 RAG 실험 결과의 서비스 적용 기간이 약 50% 단축됨
협업 및 평가 프로세스 최적화
실시간 시각화된 대시보드를 통해 실험 결과를 즉시 공유하고 피드백을 신속하게 반영 가능
플랫폼화 및 내부 표준 정착
평가 구성과 이력 저장 기능을 통해 연구팀의 실험 관리 프로세스가 체계화되어 표준 플랫폼으로 정착됨
핵심 기능
모듈형 RAG 구성 및 실행
Retrieval, Reranker, Generator, Prompt 등 각 요소를 조합하여 다양한 RAG 파이프라인을 구성하고 실행 가능
진행 단계
요구사항 분석 및 고객 인터뷰, 평가 지표 구조 설계
2024.01.
고객의 LLM 실험 및 배포 프로세스를 분석하고, 평가 목적과 기준을 정의함
Retrieval/Prompt/Generation 각 모듈별 성능 평가 항목을 수립하고 지표 체계를 설계함
프로젝트 상세
해당 프로젝트는 고객사가 자체적으로 연구·운영하는 다양한 LLM 기반 응용 시스템에서 가장 적합한 RAG 파이프라인 구성을 평가하고 최적화할 수 있도록 돕는 내부 툴을 구축하는 것이 목표였습니다. 기존에는 다양한 RAG 조합(Retrieval strategy, Re-ranker, Generator 등)을 수작업으로 실험하며 비교 분석하고 있었기에, 저희는 평가 항목을 체계화하고 자동화할 수 있는 모듈형

비슷한 프로젝트를 준비 중이라면?
위시켓 매니저와 상담하세요.

참여 개발사와 미팅 연결

프로젝트 1:1 컨설팅 제공

무료로 프로젝트 등록하기

작업한 파트너 프로필 보기

fa******
개발 · 개인사업자

프로젝트 정보

참여 기간
2024.01. ~ 2024.07.
참여율
참여율이 100%인 프로젝트는 해당 파트너님이 온전히 작업한 결과물입니다.
외부 공동 작업의 경우 기여도에 따라 참여율이 달라지며 역할, 프로젝트 설명을 통해 업무 분야 및 참여 범위를 확인할 수 있습니다.
100%
고객사
한국 소재 LLM 전문 AI 연구기관
역할
다양한 RAG 구성의 성능을 정량적으로 비교하고 자동화된 평가 및 배포를 지원하는 프레임워크 설계 및 개발
관련 기술
Prompt Engineering
AWS
grafana
Docker
Python
LLM
RAG
React
OpenSearch
Retrieval Pipeline
Bedrock
Neptune
TailAdmin