Blazing Fast Local LLM Web Apps With Gradio and Llama.cpp

Опубликовано: 26 Июнь 2024
на канале: HuggingFace
2,344
55

In this video, we'll run a state of the art LLM on your laptop and create a webpage you can use to interact with it. All in about 5 minutes. Seriously!


We'll be using Llama.cpp's python bindings to run the LLM on our machine and Gradio to build the webpage.

Resources mentioned in the video:

Llama.cpp python: https://github.com/abetlen/llama-cpp-...
Gradio: https://github.com/gradio-app/gradio
Qwen-2 0.5B Instruct Model (GGUF): https://huggingface.co/Qwen/Qwen2-0.5...
Llama.cpp's chat completion API: https://github.com/abetlen/llama-cpp-...
Gradio Chatbot Guide: https://www.gradio.app/guides/creatin...


Смотрите видео Blazing Fast Local LLM Web Apps With Gradio and Llama.cpp онлайн без регистрации, длительностью часов минут секунд в хорошем качестве. Это видео добавил пользователь HuggingFace 26 Июнь 2024, не забудьте поделиться им ссылкой с друзьями и знакомыми, на нашем сайте его посмотрели 2,344 раз и оно понравилось 55 людям.