Neuer LLM-Jailbreak: Mit psychologischem Gaslighting gegen KI-Filter
Von „Gaslighting“ spricht man, wenn jemand versucht, einen anderen Menschen gezielt zu verunsichern – das klappt auch bei LLMs.


heise security News

News von Heise
https://www.heise.de/news/Neuer-LLM-Jailbreak-Psychologe-nutzt-Gaslighting-gegen-KI-Filter-10332571.html

Teile diesen Beitrag