The paper explores whether large language models (LLMs) can introspect, finding that finetuned models can predict their own behavior, suggesting a form of internal knowledge access.
https://arxiv.org/abs//2410.13787
YouTube: / @arxivpapers
TikTok: / arxiv_papers
Apple Podcasts: https://podcasts.apple.com/us/podcast...
Spotify: https://podcasters.spotify.com/pod/sh...
Смотрите видео Looking Inward: Language Models Can Learn About Themselves by Introspection онлайн без регистрации, длительностью часов минут секунд в хорошем качестве. Это видео добавил пользователь Arxiv Papers 18 Октябрь 2024, не забудьте поделиться им ссылкой с друзьями и знакомыми, на нашем сайте его посмотрели 11 раз и оно понравилось людям.