🚀 FastAPI 기반 로컬 LLM + RAG 챗봇 만들기 – FastAPI에서 Ollama API 호출 구현이번 글에서는 FastAPI에서 Ollama API를 호출하는 기능을 구현합니다.✅ FastAPI 엔드포인트 생성 → Ollama API 요청 코드 작성 → API 실행 및 테스트 순서로 진행됩니다.📌 1. FastAPI에서 Ollama API 호출 방식FastAPI가 Ollama API를 호출하는 방식은 다음과 같습니다.사용자 → (1) FastAPI → (2) Ollama API → (3) FastAPI 응답 → (4) 사용자에게 결과 반환1️⃣ 사용자 → FastAPI에 POST /chat/ 요청을 보냄2️⃣ FastAPI → Ollama API(http://localhost:11434/..
🚀 FastAPI 기반 로컬 LLM + RAG 챗봇 만들기 – 2.2.1 FastAPI에서 Ollama API 호출 개요이번 글에서는 FastAPI와 Ollama를 연동하는 개념과 방식을 살펴봅니다.✅ Ollama API 개념 → FastAPI와 Ollama의 연동 방식 → Ollama API 활용 가능성 순서로 설명합니다.📌 1. Ollama API란?✅ Ollama 개요Ollama는 로컬에서 LLM(대형 언어 모델, Large Language Model)을 실행할 수 있도록 지원하는 프레임워크입니다.이를 통해 클라우드 의존도를 줄이고, 로컬 환경에서 AI 모델을 쉽게 배포 및 실행할 수 있습니다.✅ Ollama의 주요 기능:로컬 LLM 실행 → 인터넷 없이도 AI 모델 사용 가능다양한 모델 지원 ..
🚀 FastAPI 기반 로컬 LLM + RAG 챗봇 만들기 – Ollama 및 LLaMA3 모델 설정이 글에서는 Ollama를 설치하고 LLaMA3-Korean-Blossom 모델을 FastAPI와 연동하는 과정을 다룹니다.✅ Ollama 설치 → LLaMA3 모델 다운로드 → 모델 등록 및 테스트 순서로 진행됩니다.📌 1. Ollama란?Ollama는 로컬에서 LLM(대형 언어 모델, Large Language Model)을 실행할 수 있도록 지원하는 프레임워크입니다.이를 통해 클라우드 의존도를 줄이고, 로컬 환경에서 AI 모델을 쉽게 배포 및 실행할 수 있습니다.✅ Ollama의 주요 기능:로컬 LLM 실행 → 인터넷 없이도 AI 모델 사용 가능다양한 모델 지원 → LLaMA3, Mistral, ..
- Total
- Today
- Yesterday
- github
- 백엔드
- Next.js
- Docker
- Project
- 백엔드개발
- Ktor
- til
- babel
- kotlin
- 관리자
- llm
- PostgreSQL
- 챗봇개발
- Page
- AI챗봇
- 페이지
- Webpack
- Python
- 웹개발
- 로컬LLM
- 프론트엔드
- rag
- 리액트
- nodejs
- nextJS
- REACT
- LangChain
- fastapi
- 개발블로그
일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 | 29 |
30 | 31 |