Schutz vor Halluzinationen & PromptInjections: Absicherung von KI-Integrationen in Business-Apps

Published: 24 July 2024
on channel: Thinktecture
158
5

Alle Inhalte des Webinars, inkl. Slides: https://www.thinktecture.com/webinare...
Mehr Artikel, Webinare & mehr zum Thema Generative AI: https://www.thinktecture.com/technolo...

Mehr Inhalte von und Infos über Sebastian Gingter: https://www.thinktecture.com/thinktec...

---------
Schutz vor Halluzinationen & PromptInjections: Absicherung von KI-Integrationen in Business-Apps

Ein Chabot halluziniert einem Kunden eine sehr großzügige Erstattungs-Richtline herbei und ein Richter entscheidet, dass diese KI-Erfindung für die Firma bindend ist. Ein Benutzer “überredet” ein LLM alles tun zu können und erhält prompt Zugriff auf sensible Daten. Beides sind Albtraum-Szenarien für ein Unternehmen. Aber dennoch: Mit dem großen Erfolg von Chatbots und LLM-Apps erhält die Integration von Generative AI in Business-Anwendungen heute eine zentrale Rolle in der Geschäftsstrategie vieler Unternehmen.
In dieser Session beleuchtet Sebastian Gingter, wie wir robuste LLM-basierte Lösungen entwickeln können, die sowohl innovativ als auch sicher sind. Wir diskutieren reale Beispiele von Problemen in Anwendungen, die direkt durch ein LLM entstehen wie eben Halluzinationen oder Prompt-Injection-Angriffe. Sie sehen, welche Maßnahmen führende Anbieter ergriffen haben, um solche Risiken zu verhindern und welche konkreten Möglichkeiten Sie haben, Generative AI in ihre Schranken zu verweisen und zu einem sicheren, vertrauenswürdigen und wertschöpfenden Bestandteil Ihrer Produkte zu machen.


Watch video Schutz vor Halluzinationen & PromptInjections: Absicherung von KI-Integrationen in Business-Apps online without registration, duration hours minute second in high quality. This video was added by user Thinktecture 24 July 2024, don't forget to share it with your friends and acquaintances, it has been viewed on our site 158 once and liked it 5 people.