От месеци ChatGPT има гласова функция - ние му говорим през микрофон, той ни отговаря със синтезиран глас. Миналата седмица обаче OpenAI пусна нова "системна карта", която разкрива, че в редки случаи новата функция неволно е имитирала гласовете на потребители без тяхно разрешение.

Става дума за Advanced Voice Mode - нова форма на синтезиран глас от чатбота, която добавя звукови ефекти, паузи за вдишване и реализъм към гласа на изкуствения интелект.

Той понякога обаче се заслушва в гласа ни и го имитира без призив или позволение.

Как е възможно това? За да създава гласове, последният модел GPT-4o може да синтезира почти всякакъв звук от обучителните си данни, включително звукови ефекти и музика. Защо обаче не го прави винаги? Защото OpenAI обезкуражава това поведение чрез специални инструкции.

Но тези ограничения понякога не сработват, а изкуственият интелект може да имитира всеки глас само на базата на кратък аудиоклип - например няколкото изречения, които първи сме му предоставили. 

Изкуствен интелект, който е способен с минимално количество информация и без позволение да използва подобие на гласа ни, може да бъде сериозна заплаха за сигурността. Единствената добра новина е, че гласовите пароли и разпознаване не станаха популярни.