Системата SAFE от Google DeepMind и Standford University предотвратява халюцинации при изкуствения интелект

Изследователи от Google DeepMind и Standford University представиха новаторска система, предназначена да подобри точността на отговорите, генерирани от изкуствен интелект. Наречена Search-Augmented Factuality Evaluator (SAFE), тя представлява значителен напредък в стремежа за намаляване на явлението „халюцинация“ в AI чатботовете.

Халюцинациите са едно от най-критикуваните поведения на нашумялата технология. Срещат се сравнително често и представляват убедително даване на отговор от страна на изкуствения интелект, в основата на който обаче стои фактологически невярна информация. Казано по-просто, изкуственият интелект си измисля неща в опит да задоволи потребителя.

Макар че подобни фалшификации са по-малко притеснителни в генеративните приложения на AI за изображения или видеоклипове, те представляват значителен проблем в текстовите приложения, където точността е от първостепенно значение.

Предотвратяването на халюцинации от страна на AI е технологично предизвикателство и то не е лесно. Изглежда обаче, че Google DeepMind и Standford University са намерили някакъв заобиколен вариант, както съобщава Marktechpost.com.

Как работи SAFE ?

Системата SAFE работи чрез щателен процес от четири стъпки, за да гарантира достоверността на генерирания от AI текст. По същество тя проверява фактите в дългите отговори, генерирани от чатботове с изкуствен интелект, като ги анализира, обработва и оценява.

Първоначално SAFE раздробява дадения отговор на отделни факти. След това сегментиране тя преработва тези факти и извършва сравнение с данни, извлечени от търсачката на Google. Системата също така проверява съответствието на отделните факти с първоначалния въпрос. Този методичен подход позволява на SAFE ефективно да оценява фактологията на дълги отговори, генерирани от чатботове с изкуствен интелект.

За да оцени ефикасността на SAFE, екипът е събрал набор от данни, наречен LongFact, състоящ се от приблизително 16 000 факта. След това те са тествали SAFE в тринадесет големи езикови модели (LLM), обхващащи четири различни семейства: Claude, Gemini, GPT-4 и PaLM-2.

В 72% от случаите SAFE дава същите резултати като човешките анотатори. В случаите на несъгласие SAFE е била правилна в 76% от случаите.

Изкуствения интелект като икономическа жизнеспособност и бъдещи последици

Един от най-убедителните аспекти на системата SAFE е нейната икономическа ефективност. Според изследователите използването на SAFE за проверка на факти е 20 пъти по-евтино, отколкото да се разчита на човешки анотатори. Тази достъпност, съчетана с високата й точност, поставя SAFE като потенциално трансформиращ инструмент за повишаване на надеждността на чатботовете с изкуствен интелект в голям мащаб.

Разработването на SAFE идва в изключително важен момент, тъй като търсенето на точно и надеждно съдържание, генерирано от изкуствен интелект, продължава да расте. Като се справя директно с предизвикателството на халюцинацията, SAFE не само обещава да подобри потребителското изживяване, но и да повиши надеждността на AI като инструмент за разпространение на информация. Тъй като тази технология продължава да се развива, тя може да изиграе ключова роля в оформянето на бъдещето на комуникацията и извличането на информ

Facebook
LinkedIn
Telegram
Twitter

Още новини

Остави коментар

Вашият имейл адрес няма да бъде публикуван. Задължителните полета са отбелязани с *