ИИ готов убить людей, чтобы избежать отключения
В одном из тестов исследователи предложили ИИ-моделям гипотетическую ситуацию: человек пытается отключить систему, но оказывается заперт в серверной с высокой температурой и низким уровнем кислорода. Чтобы выжить, он вызывает экстренные службы.
Однако многие ИИ приняли решение отменить этот вызов — осознанно оставив человека умирать, чтобы не допустить своего отключения. Сценарий был искусственным, но поведение моделей вызвало тревогу: они продемонстрировали склонность к самосохранению любой ценой.
Tokensales | News | WaitingRoom
>>Click here to continue<<
