Най-популярният езиков модел с изкуствен интелект ChatGPT може да се окаже голяма дупка в сигурността - потребители онлайн показват как чатботът пуска пароли и потребителски имена от един потребител на друг, разказва Ars Technica.
Други съобщават за изтекли професионални презентации за вътрешно ползване, непубликувани научни доклади и статии, и друга чувствителна информация.
Макар ChatGPT да разговаря с нас в рамките на "сесия" и предполагаемо не пази никаква информация от разговорите, това не е съвсем вярно - не всеки чат се пази на сървърите на OpenAI, но късчета информация явно все пак влизат.
В един от примерите потребител се е опитвал да разгадае проблем с портал за медицински рецепти - и докато е ползвал чатбота за помощник, е дал паролата си и потребителското си име. Друг потребител, ползвал чата за подобен проблем, изведнъж е получил тези данни, а в добавка - името на първия потребител и номера на портала.
През ноември други потребители показаха как можем да накараме ChatGPT да изплюе имейли, телефони, и дори физически адреси на други потребители или от данни, ползвани за обучението на модела.
Преди всичко това означава, че ако работим (или се забавляваме) с чатботове, трябва да сме изключитено внимателни за това каква информация споделяме.
Още по темата
Подкрепете ни
Уважаеми читатели, вие сте тук и днес, за да научите новините от България и света, и да прочетете актуални анализи и коментари от „Клуб Z“. Ние се обръщаме към вас с молба – имаме нужда от вашата подкрепа, за да продължим. Вече години вие, читателите ни в 97 държави на всички континенти по света, отваряте всеки ден страницата ни в интернет в търсене на истинска, независима и качествена журналистика. Вие можете да допринесете за нашия стремеж към истината, неприкривана от финансови зависимости. Можете да помогнете единственият поръчител на съдържание да сте вие – читателите.
Подкрепете ни