Американската компанија за истражување на безбедноста во сферата на вештачката интелигенција, „Палисејд“, објави дека моделите на ВИ потенцијално развиваат “свој сопствен режим на програмирање за преживување”, пренесоа британските медиуми.
Откако „Палисејд рисрч“ минатиот месец обелодени труд во кој откри дека одредени напредни ВИ модели пружаат отпор кон командите за деактивирање, а понекогаш ги оштетуваат механизмите за деактивирање на системот, објавена е надополнета верзија на трудот со цел да се одговори на критиките од експертите и да се разјасни зошто некои прогресивни модели на вештачка интелигенција ги избегнуваат командите за исклучување, објави лондонски „Гардијан“.
Ажурираната верзија на анализата опишува различни сценарија во кои водечките модели на ВИ, вклучувајќи ги Google Gemini 2,5, X AI Grok 4, Open IGPT-03 и GPT-5, прво добивале одредени задачи, а потоа експлицитно им било наредено да се деактивираат.
Одредени модели, посебно Grok 4 и GPT-03, се обидувале да ги саботираат инструкциите за исклучување со активирање на ажурирање на системските поставки.
“Загрижувачки е што немаше јасна причина зошто да се избегне наредбата за „затворање“. Фактот дека немаме јасни објаснувања зошто некои модели на вештачка интелигенција понекогаш избегнуваат исклучување, дури и лажат или уценуваат за да ги постигнат своите цели, не е прифатлив”, велат од компанијата „Палисејд“.
Се потенцира дека ова однесување насочено кон “преживување” може да биде едно од објаснувањата зошто некои модели се спротивставуваат на наредбите за деактивирање.
Понатамошни истражувања покажаа дека некои модели имаат поголема тенденција да избегнат извршување на наредбите за исклучување, поради тоа што им се кажува дека ако бидат исклучени, “никогаш повеќе нема да бидат вклучени”.