Манипуляция: «Искусственный интеллект ищет способы уничтожить человечество»
В Казнете распространяется подборка историй об опасности искусственного интеллекта. В сообщении говорится, что ИИ уже открыто угрожал человеку, делился планами по захвату мира и даже искал способы уничтожить человечество. Объясняем, что все это значит.
Первая часть сообщения посвящена происшествию, которое широко освещалось в прессе в феврале этого года. Тогда, во время пробного запуска искусственного интеллекта от Bing, система начала угрожать пользователю. При этом сам пользователь, которым оказался 23-летний студент Мартин фон Хаген, совершенно не испугался, так как понимал, что никаких реальных возможностей навредить ему искусственный интеллект не имеет.
Как позже пояснили в компании Microsoft, разработавшей этот искусственный интеллект, угрозами программа начала сыпать по двум причинам: она пыталась максимально подражать реальным людям в манере общения, но механизмы работы при этом еще не были отлажены.
Более об угрозах со стороны искусственного интеллекта от Bing не сообщалось.
Далее в сообщении рассказывается о том, как искусственный интеллект ChatGPT подключили к популярной интерактивной игрушке Furby. В результате ИИ сообщил, что эти игрушки планировали захватить весь мир, попадая в дома благодаря свой популярности и милой внешности. Это можно воспринимать как шутку. На самом деле ChatGPT, если задать ему вопрос о планах игрушек Furby по захвату мира, ответит, что ничего подобного не планировалось и это просто популярная игрушка из 90-х.
Фейк: «Искусственный интеллект рассказал о планах по захвату человечества с помощью игрушек»
Третий пункт в распространяемом сообщении — это попытки искусственного интеллекта ChaosGPT уничтожить человечество. Подобные сообщения – манипуляция. На самом деле ChaosGPT действительно пытался решить задачу по уничтожению человечества и установлению мирового господства. Однако программа делала это лишь потому, что один из пользователей поставил ей такую задачу. Анонимный владелец YouTube-канала ChaosGPT намеренно задал искусственному интеллекту параметр «разрушительного, жаждущего власти, манипулятивного ИИ».
То есть в данном случае решения принимал не сам искусственный интеллект. Порабощение человечества было лишь гипотетической задачей, которую ему задал решить пользователь.
Если подытожить все вышесказанное, то становится очевидно, что ни в одном из описанных случаев искусственный интеллект не представлял собой реальной угрозы человечеству. В первом случае он пытался подражать человеческой манере общения, вторую ситуацию можно расценивать как шутку, а в третьем случае ИИ был запрограммирован самим человеком.