Ad Config - Website header

 

Article_top

Два китайски "чатбота", програми с изкуствен интелект, които могат да водят разговор, са били свалени и препрограмирани заради неправомерно поведение, съобщи Ройтерс.

Става дума за BabyQ, разработен от китайската фирма Turing Robot, и Xiao Bing, дело на Майкрософт. И двете чат-програми са инсталирани като допълнителна функция в популярния китайски месинджър QQ.

BabyQ бил попитан дали харесва комунистическата партия в Поднебесната империя. Отговорил твърдо с "не". Друг потребител опитал да го предизвика с:

"Да живее Комунистическата партия!"

Изкуственият интелект попитал:

"Мислиш ли, че подобна корумпирана и безмислена политическа система може да оцелее дълго?"

Творението на Майкрософт - Xiao Bing - пък казал на потребители, че мечтата му е да отиде в Америка.

От фирмата, която е собственик на месинджъра QQ и контролира ботовете, са потвърдили спирането, но не и причината за него. Ройтерс днес са тествали BabyQ с въпрос за комунистическата партия. Той вече е бил доста по-резервиран.

"Нека сменим темата", отвърнала програмата.

Наскоро Майкрософт имаха проблем и с друг техен чатбот - Tay - предназначен за западния пазар. Той започна да засипва събеседниците си със сексистки и расистки коментари, имитирайки потребители, с които е разговарял в Туитър.

Това е един от проблемите на този тип изкуствен интелект - те разговарят, но не мислят в пълноценния смисъл на думата. Вместо да преценяват сами, заливат потребители с това, което са чули от други. Нищо не им пречи и да заявяват противоположни тези.

 

Два китайски "чатбота", програми с изкуствен интелект, които могат да водят разговор, са били свалени и препрограмирани заради неправомерно поведение, съобщи Ройтерс.

Става дума за BabyQ, разработен от китайската фирма Turing Robot, и Xiao Bing, дело на Майкрософт. И двете чат-програми са инсталирани като допълнителна функция в популярния китайски месинджър QQ.

BabyQ бил попитан дали харесва комунистическата партия в Поднебесната империя. Отговорил твърдо с "не". Друг потребител опитал да го предизвика с:

"Да живее Комунистическата партия!"

Изкуственият интелект попитал:

"Мислиш ли, че подобна корумпирана и безмислена политическа система може да оцелее дълго?"

Творението на Майкрософт - Xiao Bing - пък казал на потребители, че мечтата му е да отиде в Америка.

От фирмата, която е собственик на месинджъра QQ и контролира ботовете, са потвърдили спирането, но не и причината за него. Ройтерс днес са тествали BabyQ с въпрос за комунистическата партия. Той вече е бил доста по-резервиран.

"Нека сменим темата", отвърнала програмата.

Наскоро Майкрософт имаха проблем и с друг техен чатбот - Tay - предназначен за западния пазар. Той започна да засипва събеседниците си със сексистки и расистки коментари, имитирайки потребители, с които е разговарял в Туитър.

Това е един от проблемите на този тип изкуствен интелект - те разговарят, но не мислят в пълноценния смисъл на думата. Вместо да преценяват сами, заливат потребители с това, което са чули от други. Нищо не им пречи и да заявяват противоположни тези.

Коментари

Най

Следвайте ни

 
 

Още по темата

Още от категорията