Манипуляция

Манипуляция: «Жасанды интеллект адамзатты жоюдың жолдарын іздейді»

Қазнетте жасанды интеллекттің қауіптілігі туралы оқиғалар тарады. Хабарламаға сәйкес, жасанды интеллект адамды қорқытып, әлемді жаулап алу жоспарларымен бөліскен және адамзатты жоюдың жолдарын іздеп жатыр. Бұл нені білдіреді? Түсіндірейік.

Хабарламаның бірінші бөлімі осы жылдың ақпан айында баспасөзде кеңінен жарияланған оқиғаға арналған. Bing жасанды интеллектісін сынақтан өткізу кезінде жүйе пайдаланушыға қауіп төндірген. Ал пайдаланушы – 23 жастағы студент Мартин фон Хаген мүлдем қорықпаған, өйткені ол жасанды интеллект оған зиян келтіре алмайтынын білген.
Кейіннен осы жасанды интеллектті әзірлеген Microsoft корпорациясы бағдарлама екі себепке байланысты қоқан-лоққы көрсеткенін түсіндіріп өтті: ол қарым-қатынас жағынан адамдарға барынша еліктеуге тырысқан, бірақ жұмыс механизмдері әлі реттелмеген.
Bing жасанды интеллекттің басқа да қорқыту жағдайлары туралы хабарламаған.
Одан әрі мәтінде ChatGPT жасанды интеллекті танымал Furby интерактивті ойыншығына қосылғаны туралы айтылады. Нәтижесінде ЖИ бұл ойыншықтар танымалдығы мен сүйкімді келбетінің арқасында үйлерге кіріп, бүкіл әлемді жаулап алуды жоспарлаған деп хабарлады. Бұл әзіл десе де болады. Ал ChatGPT-дее Furby-дің әлемді жаулап алу жоспарлары туралы сұрасаңыз, ол ондай жоспар болмаған және бұл 90-шы жылдардағы танымал ойыншық деп жауап береді.

Фейк: «Жасанды интеллект адамзатты ойыншықтармен басып алу жоспарлары туралы айтты»

Таралған хабарламадағы үшінші тармақ – ChaosGPT жасанды интеллектінің адамзатты жою әрекеттері. Мұндай хабарламалар манипуляция болып табылады. Шын мәнінде, ChaosGPT адамзатты жою және әлемдік үстемдікті орнату мәселесін шешуге тырысты. Алайда, бағдарлама мұны пайдаланушылардың бірі оған осындай тапсырма бергендіктен жасаған. ChaosGPT YouTube-каналының анонимді иесі жасанды интеллектке «деструктивті, билікке құмар, манипулятивті ЖИ» параметрін әдейі орнатқан.
Яғни, бұл жағдайда жасанды интеллекттің өзі шешім қабылдамаған. Адамзатты құлдыққа түсіру қолданушы алға қойған гипотетикалық міндет болған.
Жоғарыда айтылғандарды қорытындыласақ, сипатталған жағдайлардың ешқайсысында жасанды интеллект адамзатқа нақты қауіп төндірмегені анық. Бірінші жағдайда ол қарым-қатынас жағынан адамға еліктеуге тырысқан, екінші жағдай – әзіл болған, үшінші жағдайда жасанды интеллектіні адамның өзі бағдарламалаған.

 

Фейктерді әшкерелеу біздің Stopfake.kz Telegram-арнамызда. Бірден шындықты білгіңіз келсе, жазылыңыздар.

Басқа жаңалықтар

Back to top button