Schutz vor Halluzinationen & PromptInjections: Absicherung von KI-Integrationen in Business-Apps

Опубликовано: 24 Июль 2024
на канале: Thinktecture
158
5

Alle Inhalte des Webinars, inkl. Slides: https://www.thinktecture.com/webinare...
Mehr Artikel, Webinare & mehr zum Thema Generative AI: https://www.thinktecture.com/technolo...

Mehr Inhalte von und Infos über Sebastian Gingter: https://www.thinktecture.com/thinktec...

---------
Schutz vor Halluzinationen & PromptInjections: Absicherung von KI-Integrationen in Business-Apps

Ein Chabot halluziniert einem Kunden eine sehr großzügige Erstattungs-Richtline herbei und ein Richter entscheidet, dass diese KI-Erfindung für die Firma bindend ist. Ein Benutzer “überredet” ein LLM alles tun zu können und erhält prompt Zugriff auf sensible Daten. Beides sind Albtraum-Szenarien für ein Unternehmen. Aber dennoch: Mit dem großen Erfolg von Chatbots und LLM-Apps erhält die Integration von Generative AI in Business-Anwendungen heute eine zentrale Rolle in der Geschäftsstrategie vieler Unternehmen.
In dieser Session beleuchtet Sebastian Gingter, wie wir robuste LLM-basierte Lösungen entwickeln können, die sowohl innovativ als auch sicher sind. Wir diskutieren reale Beispiele von Problemen in Anwendungen, die direkt durch ein LLM entstehen wie eben Halluzinationen oder Prompt-Injection-Angriffe. Sie sehen, welche Maßnahmen führende Anbieter ergriffen haben, um solche Risiken zu verhindern und welche konkreten Möglichkeiten Sie haben, Generative AI in ihre Schranken zu verweisen und zu einem sicheren, vertrauenswürdigen und wertschöpfenden Bestandteil Ihrer Produkte zu machen.


Смотрите видео Schutz vor Halluzinationen & PromptInjections: Absicherung von KI-Integrationen in Business-Apps онлайн без регистрации, длительностью часов минут секунд в хорошем качестве. Это видео добавил пользователь Thinktecture 24 Июль 2024, не забудьте поделиться им ссылкой с друзьями и знакомыми, на нашем сайте его посмотрели 158 раз и оно понравилось 5 людям.