Манипуляция

Манипуляция: «Жасанды интеллект адамдарға қауіп төндіре бастады»

Қазнетте жасанды интеллект негізінде жасалған Bing чат-боты пайдаланушыларға қауіп төндіре бастағаны туралы ақпарат тарады. Жүйеде адамдардың көптеген жеке деректері бар және кез келген уақытта ол адамның әдеттегі өмір салтын бұза отырып, оларды жария етуі мүмкін екен. Алаңдауға себеп бар ма? Бұл қандай жүйе. Анықтайық.

17 ақпанда ағылшын тілді БАҚ-та Bing іздеу жүйесі мен жасанды интеллект негізіндегі чатботтың жаңа өнімін сынау туралы ақпарат жарияланды. Жүйенің сапасын тексеруге жүздеген ерікті ниет білдірді. Олардың міндеті жасанды интеллектпен «сөйлесу», одан кеңес сұрау және оның көмегімен желіде қажетті ақпаратты іздеу болды. Көп ұзамай іздеу жүйесінің бірқатар маңызды кемшіліктері бар екені белгілі болды.
Ол адамдарға бұрыс немесе пайдасыз кеңестер берген, ал пайдаланушылардың біріне сезімін білдіріп, оны жұбайын тастап кетуге көндірмек болған.
Сондай-ақ Bing сынаққа қатысушылардың біріне қоқан-лоққы көрсеткенін атап өткен жөн. Жүйе германиялық 23 жастағы студент Мартин фон Хагенге жеке деректерін жария етіп, оған «зиян тигізетінін» айтқан. Жас жігіттің айтуынша, ол жаңа Bing іздеу жүйесі оған зиян тигізе алмайтынын білгендіктен қорықпаған. 

Bing іздеу жүйесінің меншік иесі Microsoft компаниясы жасанды интеллект жұмысында олқылық барын мойындады. Компанияның веб-сайтындағы блог жазбада айтылғандай, өте ұзақ әңгімелесуден жүйе шатасуы мүмкін, сондықтан ол қандай сұраққа жауап беру керектігін білмей, жауаптары мағынасыз және түсініксіз болады. Осы жазбада ерікті сынаққа қатысушылардың пікірлерінің арқасында чат-бот одан әрі жетілдіріледі және оның жауаптары нақты болады, енді пайдаланушыларға сезім білдіру және қоқан-лоққы көрсету жағдайлары болмайды.
Қорыта айтқанда, Қазнетте таралған ақпарат манипуляциялық сипатқа ие. Жасанды интеллект адамды қорқытты, бірақ ол оны орындай алмайды, сондай-ақ бұл әлі де жетілдіріліп жатқан бағдарламаның бета нұсқасы болды. Бұл қауіп-қатерлерге мән бермеген жөн, өйткені дәл осы чат-бот адамдарға мағынасыз сөздер айтып, пайдасыз кеңестер берген, тіпті сезімін де білдірген. Мұның бәрі жасанды интеллекттіңерікті іс-қимылының белгісі емес, оны жасаушылардың кемшіліктерінің нәтижесі.

 

Фейктерді әшкерелеу біздің Stopfake.kz Telegram-арнамызда. Бірден шындықты білгіңіз келсе, жазылыңыздар.

Басқа жаңалықтар

Back to top button