
구매문의 및 도서상담은 031-944-3966(매장)으로 문의해주세요.
매장전집은 전화 혹은 매장방문만 구입 가능합니다.

지은이 : 막심 라본
Liquid AI의 모델 최적화 총괄 책임자. 파리 폴리테크닉 연구소에서 ML 박사 학위를 취득했으며, AI/ML 분야의 구글 개발자로 일하고 있다. LLM 과정과 LLM AutoEval 등의 도구, NeuralDaredevil과 같은 SOTA 모델을 포함해 오픈 소스 커뮤니티에 활발히 기여하고 있으며, 기술 블로그도 꾸준히 운영하고 있다. 저서로는 『핸즈온 그래프 인공신경망 with Python』(홍릉, 2024)이 있다.
지은이 : 폴 이우수틴
7년 이상 생성형 AI, 컴퓨터 비전 및 MLOps 설루션을 구축한 시니어 ML/MLOps 엔지니어. 최근에는 Metaphysic에서 대규모 신경망을 프로덕션에 적용하는 핵심 엔지니어로 근무했다. 또한 프로덕션급 ML 교육 채널인 Decoding ML을 설립해 사람들이 ML 시스템을 구축할 수 있도록 IT 기사와 오픈 소스 강좌를 제공하고 있다.
CHAPTER 1 LLM Twin 개념과 아키텍처 이해
_1.1 LLM Twin 개념
_1.2 LLM Twin의 제품 기획
_1.3 특성, 학습, 추론 파이프라인 기반 ML 시스템 개발
_1.4 LLM Twin의 시스템 아키텍처 설계
_요약
_참고 문헌
CHAPTER 2 도구 및 설치
_2.1 파이썬 생태계와 프로젝트 설치
_2.2 MLOps와 LLMOps 도구
_2.3 비정형 데이터와 벡터 데이터를 저장하기 위한 데이터베이스
_2.4 AWS 사용 준비
_요약
_참고 문헌
CHAPTER 3 데이터 엔지니어링
_3.1 LLM Twin의 데이터 수집 파이프라인 설계
_3.2 LLM Twin의 데이터 수집 파이프라인 구현
_3.3 원시 데이터를 데이터 웨어하우스로 수집
_요약
_참고 문헌
CHAPTER 4 RAG 특성 파이프라인
_4.1 RAG 이해
_4.2 고급 RAG 개요
_4.3 LLM Twin의 RAG 특성 파이프라인 아키텍처
_4.4 LLM Twin의 RAG 특성 파이프라인 구현하기
_요약
_참고 문헌
CHAPTER 5 지도 학습 파인튜닝
_5.1 지시문 데이터셋 생성
_5.2 지시문 데이터셋 자체 생성
_5.3 SFT 기법
_5.4 실전 파인튜닝
_요약
_참고 문헌
CHAPTER 6 선호도 정렬을 활용한 파인튜닝
_6.1 선호도 데이터셋 이해
_6.2 선호도 데이터셋 생성
_6.3 선호도 정렬
_6.4 DPO 구현
_요약
_참고 문헌
CHAPTER 7 LLM 평가
_7.1 모델 평가
_7.2 RAG 평가
_7.3 TwinLlama-3.1-8B 평가
_요약
_참고 문헌
CHAPTER 8 추론 최적화
_8.1 모델 최적화 전략
_8.2 모델 병렬 처리
_8.3 모델 양자화
_요약
_참고 문헌
CHAPTER 9 RAG 추론 파이프라인
_9.1 LLM Twin의 RAG 추론 파이프라인 이해
_9.2 LLM Twin의 고급 RAG 기법 탐구
_9.3 LLM Twin의 RAG 추론 파이프라인 구현
_요약
_참고 문헌
CHAPTER 10 추론 파이프라인 배포
_10.1 배포 유형 선택 기준
_10.2 추론 배포 유형 이해
_10.3 모놀리식 아키텍처와 마이크로서비스 아키텍처 비교
_10.4 LLM Twin의 추론 파이프라인 배포 전략 탐구
_10.5 LLM Twin 서비스를 배포하기
_10.6 급증하는 사용량 처리를 위한 오토스케일링
_요약
_참고 문헌
CHAPTER 11 MLOps와 LLMOps
_11.1 DevOps, MLOps, LLMOps
_11.2 LLM Twin 파이프라인을 클라우드에 배포하기
_11.3 LLM Twin에 LLMOps 적용
_요약
_참고 문헌
APPENDIX MLOps 원칙
_원칙 1: 자동화 또는 운영화
_원칙 2: 버전 관리
_원칙 3: 실험 추적
_원칙 4: 테스트
_원칙 5: 모니터링
_원칙 6: 재현 가능성
도서 DB 제공 - 알라딘 인터넷서점 (www.aladin.co.kr)