프로젝트 배경
1) 예상 리스크 및 대응 계획 - WebSocket 연결 유지 중 브라우저 탭 전환 시 연결 끊김 리스크가 있으며, 재연결 로직(exponential backoff)과 메시지 큐 버퍼링으로 대응할 계획입니다. - OpenAI API 응답 지연(5~15초)으로 UX가 저하될 리스크가 있으며, SSE 스트리밍 렌더링과 스켈레톤 로딩 UI로 체감 대기시간을 줄이는 방식으로 대응할 계획입니다. - Rechar
프로젝트 성과
FastAPI ML 추론 엔드포인트 14개 + Recharts 시각화 컴포넌트 22개를 연
scikit-learn 모델 서빙 API와 React 프론트엔드를 연결하는 타입세이프 인터페이스를 TypeScript로 설계하고, 5종 차트 컴포넌트로 예측 결과를 시각화하는 구조를 구현합니다.
WebSocket 실시간 스트리밍으로 모델 학습 모니터링 UI를 설계합니다
Celery 비동기 학습 작업의 에포크별 진행 상황을 WebSocket 채널로 스트리밍하고, Recharts LineChart 실시간 append 렌더링으로 손실값 수렴을 모니터링하는 구조를 설계합니다.
OpenAI GPT-4o SSE 스트리밍 기반 기술 보고서 자동 생성 파이프라인을 설계합니
실험 결과 JSON을 구조화 프롬프트로 변환하여 GPT-4o에 전달하고, Server-Sent Events로 보고서 생성을 실시간 스트리밍하는 LLM 연동 파이프라인을 구현합니다.
JWT RBAC + React PrivateRoute로 연구원/관리자 권한 분리 구조를 설
JWT refresh token 인증과 axios 인터셉터 자동 갱신, React Context 기반 역할별 라우트 접근 제어를 적용하여 보안 계층을 구성합니다.
핵심 기능
진행 단계
설계 및 환경 구성
2026.04.
FastAPI 프로젝트 초기화, PostgreSQL 스키마 설계, Docker Compose 구성 (API + DB + Redis + Celery)
프로젝트 상세
1) 포트폴리오 소개 분무건조(Spray Drying) 공정의 핵심 파라미터를 입력하면 FastAPI 기반 ML 추론 엔드포인트를 통해 예측값을 즉시 반환하고, 베이지안 최적화 결과를 Recharts 히트맵·산점도로 시각화하며, OpenAI API로 기술 보고서를 자동 생성하는 R&D 지원 플랫폼을 설계합니다. 2) 작업 범위 - 공정 파라미터 입력 및 ML 추론: 입구 온도·공급 유량·아토마이저 회








