От месеци ChatGPT има гласова функция - ние му говорим през микрофон, той ни отговаря със синтезиран глас. Миналата седмица обаче OpenAI пусна нова "системна карта", която разкрива, че в редки случаи новата функция неволно е имитирала гласовете на потребители без тяхно разрешение.
Става дума за Advanced Voice Mode - нова форма на синтезиран глас от чатбота, която добавя звукови ефекти, паузи за вдишване и реализъм към гласа на изкуствения интелект.
Той понякога обаче се заслушва в гласа ни и го имитира без призив или позволение.
Как е възможно това? За да създава гласове, последният модел GPT-4o може да синтезира почти всякакъв звук от обучителните си данни, включително звукови ефекти и музика. Защо обаче не го прави винаги? Защото OpenAI обезкуражава това поведение чрез специални инструкции.
Но тези ограничения понякога не сработват, а изкуственият интелект може да имитира всеки глас само на базата на кратък аудиоклип - например няколкото изречения, които първи сме му предоставили.
Изкуствен интелект, който е способен с минимално количество информация и без позволение да използва подобие на гласа ни, може да бъде сериозна заплаха за сигурността. Единствената добра новина е, че гласовите пароли и разпознаване не станаха популярни.
Още по темата
Подкрепете ни
Уважаеми читатели, вие сте тук и днес, за да научите новините от България и света, и да прочетете актуални анализи и коментари от „Клуб Z“. Ние се обръщаме към вас с молба – имаме нужда от вашата подкрепа, за да продължим. Вече години вие, читателите ни в 97 държави на всички континенти по света, отваряте всеки ден страницата ни в интернет в търсене на истинска, независима и качествена журналистика. Вие можете да допринесете за нашия стремеж към истината, неприкривана от финансови зависимости. Можете да помогнете единственият поръчител на съдържание да сте вие – читателите.
Подкрепете ни