Building applications on top of Large Language Models brings unique security challenges, some of which we still don't have great solutions for. Simon will be diving deep into prompt injection and jailbreaking, how they work, why they're so hard to fix and their implications for the things we are building on top of LLMs.Simon Willison is the creator of Datasette, an open source tool for exploring and publishing data. He currently works full-time building open source tools for data journalism, built around Datasette and SQLite.
Смотрите видео Jailbreaking LLMs - Prompt Injection and LLM Security онлайн без регистрации, длительностью часов минут секунд в хорошем качестве. Это видео добавил пользователь Mozilla Developer 01 Январь 1970, не забудьте поделиться им ссылкой с друзьями и знакомыми, на нашем сайте его посмотрели 2,915 раз и оно понравилось 93 людям.