Zobrazeno 1 - 2
of 2
pro vyhledávání: '"Schnabl, Christoph"'
Autor:
von Recum, Alexander, Schnabl, Christoph, Hollbeck, Gabor, Alberti, Silas, Blinde, Philip, von Hagen, Marvin
Refusals - instances where large language models (LLMs) decline or fail to fully execute user instructions - are crucial for both AI safety and AI capabilities and the reduction of hallucinations in particular. These behaviors are learned during post
Externí odkaz:
http://arxiv.org/abs/2412.16974
Akademický článek
Tento výsledek nelze pro nepřihlášené uživatele zobrazit.
K zobrazení výsledku je třeba se přihlásit.
K zobrazení výsledku je třeba se přihlásit.