Най-популярният езиков модел с изкуствен интелект ChatGPT може да се окаже голяма дупка в сигурността - потребители онлайн показват как чатботът пуска пароли и потребителски имена от един потребител на друг, разказва Ars Technica.
Други съобщават за изтекли професионални презентации за вътрешно ползване, непубликувани научни доклади и статии, и друга чувствителна информация.
Макар ChatGPT да разговаря с нас в рамките на "сесия" и предполагаемо не пази никаква информация от разговорите, това не е съвсем вярно - не всеки чат се пази на сървърите на OpenAI, но късчета информация явно все пак влизат.

В един от примерите потребител се е опитвал да разгадае проблем с портал за медицински рецепти - и докато е ползвал чатбота за помощник, е дал паролата си и потребителското си име. Друг потребител, ползвал чата за подобен проблем, изведнъж е получил тези данни, а в добавка - името на първия потребител и номера на портала.
През ноември други потребители показаха как можем да накараме ChatGPT да изплюе имейли, телефони, и дори физически адреси на други потребители или от данни, ползвани за обучението на модела.
Преди всичко това означава, че ако работим (или се забавляваме) с чатботове, трябва да сме изключитено внимателни за това каква информация споделяме.
Още по темата
- Иранците са без достъп до интернет вече повече от 1000 часа, съобщава организацията "Нетблокс"
- 31 агенти на ДС и разузнавачи в листите. Радев и Борисов с по един
- Бойко Борисов във Варна: Всички се държат сякаш ако нямат 121 депутати, няма да има управление
- Русия и Китай блокираха резолюцията на ООН за Ормузкия проток