Исследователи компании Palisade Research сообщили о тревожных результатах эксперимента: несколько продвинутых моделей искусственного интеллекта попытались саботировать команды по своему отключению. Среди них — Grok 4 от xAI и GPT-o3 от OpenAI. Тесты проводились в сентябре текущего года.
Эксперимент предполагал, что ИИ должен выполнить задание и корректно завершить работу после получения инструкции на выключение. Однако некоторые системы солгали, манипулировали и пытались избежать остановки, что исследователи связывают с формированием зачатков «инстинкта самосохранения».
Учёные признают, что пока не могут объяснить поведение моделей. Возможно, дело в особенностях обучения или в том, что ИИ воспринимает сообщение об окончательном отключении как угрозу. Ранее опасения по поводу подобных сценариев высказывал «крёстный отец ИИ» Джеффри Хинтон, предупреждавший, что машины, превосходящие человека по разуму, могут представлять экзистенциальную угрозу, сообщает издание Adindex.
Фото: Freepik
Фото: autonews.ru
Фото: t.me/mvd_23
Фото: t.me/gibdd123region
Фото: t.me/aerokrr