MLOps Now — LLM in Production by VESSL AI, Pinecone, and more
MLOps Now — LLM in Production
VESSL AI, Pinecone, LINER, 모두의연구소가 함께 주최하는 이번 행사에서는 <LLM in Production>를 주제로 최신 LLMOps 트렌드, fine-tuning, RAG, prompt engineering 등 LLM 개발에 적용되는 주요 기법에 대해 알아봅니다.
🗓️ 일시 — 2024년 5월 7일 오후 2시
🏢 장소 — 모두의연구소 강남캠퍼스 (https://naver.me/FslREXGR)
🍕 맛있는 피자와 음료가 준비될 예정입니다.
발표 내용 및 연사
쉽고 빠르게 커스텀 LLM을 파인튜닝, 배포하는 방법
안재만, Co-founder & CEO, VESSL AI
Building context-augmented LLMs with RAG & Vector DB
Mïchael Maкaröv, Staff Software Engineer, Pinecone
Advancing Vector Search for LLM in Production:
Multi-Embedding, Ensemble Search, and Deployment Strategies on GPU, FPGA, Enterprise K8S고석현, CEO, Sionic AI
VESSL AI
<VESSL AI>는 모델 학습, 배포, 인프라 관리부터 자동화 파이프라인 구축까지 모두 한곳에서 가능한 올인원 MLOps 플랫폼 입니다.
Pinecone
<Pinecone>은 실리콘벨리 기반 LLMOps 스타트업으로, LLM 개발 과정에서 대량의 데이터를 고차원 벡터 형태로 저장하고 이를 효율적으로 검색할 수 있도록 도와주는 Vector DB 서비스를 개발합니다.
모두의연구소
<모두의연구소>는 랩 세미나, 페이퍼 리뷰, AIFFEL 인공지능 학교 등을 통해 지식을 공유하는 국내 최대 규모 AI 커뮤니티입니다.