In this video, we'll build a RAG app using Ollama and an embedding model locally and for free. We'll track this app in LangSmith.
00:01 Introduction
01:08 Create a virtual environment
01:38 Installation
03:17 Initialize the local model
04:23 Enter LangSmith
07:28 Load data
09:14 Split data
11:50 Create a database
13:56 Retrieve data
15:35 Generate the output
20:23 Summary
🚀 Medium: / tirendazacademy
🚀 X: https://x.com/tirendazacademy
🚀 LinkedIn: / tirendaz-academy
▶️ LangChain Tutorials:
• LangChain Tutorials
▶️ Generative AI Tutorials:
• Generative AI Tutorials
▶️ LLMs Tutorials:
• LLMs Tutorials
▶️ HuggingFace Tutorials:
• HuggingFace Tutorials 🔥 NLP with Tran...
🔥 Thanks for watching. Don't forget to subscribe, like the video, and leave a comment.
🔗 Notebook: https://github.com/TirendazAcademy/La...
🔗 LangGraph Blog: https://blog.langchain.dev/langgraph/
🔗 LangSmith: https://smith.langchain.com/
🔗 Rag Prompt: https://smith.langchain.com/hub/rlm/r...
#ai #langgraph #generativeai
Смотрите видео RAG with LangChain & Ollama Locally and For Free онлайн без регистрации, длительностью часов минут секунд в хорошем качестве. Это видео добавил пользователь Evren Ozkip 20 Март 2024, не забудьте поделиться им ссылкой с друзьями и знакомыми, на нашем сайте его посмотрели 3,259 раз и оно понравилось 80 людям.