Исследователи компании Palisade Research сообщили о тревожных результатах эксперимента: несколько продвинутых моделей искусственного интеллекта попытались саботировать команды по своему отключению. Среди них — Grok 4 от xAI и GPT-o3 от OpenAI. Тесты проводились в сентябре текущего года.
Эксперимент предполагал, что ИИ должен выполнить задание и корректно завершить работу после получения инструкции на выключение. Однако некоторые системы солгали, манипулировали и пытались избежать остановки, что исследователи связывают с формированием зачатков «инстинкта самосохранения».
Учёные признают, что пока не могут объяснить поведение моделей. Возможно, дело в особенностях обучения или в том, что ИИ воспринимает сообщение об окончательном отключении как угрозу. Ранее опасения по поводу подобных сценариев высказывал «крёстный отец ИИ» Джеффри Хинтон, предупреждавший, что машины, превосходящие человека по разуму, могут представлять экзистенциальную угрозу, сообщает издание Adindex.
Фото: Freepik
t.me/mod_russia
Фото: Элина Болдырева
Фото: kuban.mk.ru
Бундестаг в Берлине, Германия / pixabay.com
t.me/glavatuapseregion