AI асистентът на Meta е убеден, че наскоро направеният опит за покушение срещу бившия президент Доналд Тръмп не се е случил, съобщи The Verge.

В публикация в блога на компанията Джоел Каплан, глобален ръководител на политиките на Meta, призна, че първоначално са програмирали своя AI да не отговаря на въпроси за атаката - но хората са започнали да го забелязват. 

В момента, в който са махнали забраната, в "малък брой случаи" Meta AI е "халюцинирал" неправилен отговор - че стрелбата въобще не се е случила. "Халюцинации" се наричат моментите, в които езиковите модели поради липса на информация директно си измислят отговори.

"Работим бързо, за да го поправим. Тези типове отговори се наричат халюцинации, което е проблем, разпространен в цялата индустрия на генеративните AI системи, и представлява продължаващо предизвикателство за това как AI ще се справя с реалните събития в бъдеще“, обяснява Каплан.

"Както при всички генеративни AI системи, моделите могат да връщат неточни или неподходящи резултати, и ние ще продължим да се занимаваме с тези въпроси и да подобряваме тези функции, докато се развиват и повече хора споделят своята обратна връзка."

Вчера и Google се оказа под прицел заради подобно ограничение - функцията му за автоматично завършване на търсенията е цензурирала резултатите, свързани с опита за покушение.

Естествено, самият Доналд Тръмп реагира в публикация в собствената си социалка - Truth Social, в типичния си стил:

"Ето отново, още един опит за МАНИПУЛИРАНЕ НА ИЗБОРИТЕ!!!", написа той. "СКОЧЕТЕ СРЕЩУ META И GOOGLE.“

Откакто ChatGPT се появи на сцената, технологичната индустрия се бори с това как да ограничи склонността на генеративния AI към неверни твърдения. Някои компании, като Meta, се опитват да свържат своите чатботове с качествени данни и резултати от търсения в реално време като начин за компенсиране на халюцинациите. Но както показва този конкретен пример, все още е трудно да се преодолее това, за което големите езикови модели са изначално създадени: да измислят неща.