The EASIEST way to run MULTIMODAL AI Locally! (Ollama ❤️ LlaVA)

Опубликовано: 16 Декабрь 2023
на канале: 1littlecoder
8,528
224

With the power of Llava Models and Thanks to Ollama's support, you can run GPT-4 Vision like (not the exact match) Mutlimodal models locally on your computers (does not need CPU).

🔗 Links 🔗

My Ollama Intro tutorial -    • Ollama on CPU and Private AI models!  
Ollama Llava library - https://ollama.ai/library?q=llava
Ollama Mulitmodal release - https://github.com/jmorganca/ollama/r...
LLaVA https://llava-vl.github.io/

My previous Ollama Tutorial (Web UI)

   • Ollama Web UI (ChatGPT-ish) - Local A...  

❤️ If you want to support the channel ❤️
Support here:
Patreon -   / 1littlecoder  
Ko-Fi - https://ko-fi.com/1littlecoder

🧭 Follow me on 🧭
Twitter -   / 1littlecoder  
Linkedin -   / amrrs  


Смотрите видео The EASIEST way to run MULTIMODAL AI Locally! (Ollama ❤️ LlaVA) онлайн без регистрации, длительностью часов минут секунд в хорошем качестве. Это видео добавил пользователь 1littlecoder 16 Декабрь 2023, не забудьте поделиться им ссылкой с друзьями и знакомыми, на нашем сайте его посмотрели 8,528 раз и оно понравилось 224 людям.