Create: Update:
🧠 Каких рисков боятся крестные отцы AI: часть 1
В начале недели вышла публикация в Financial Times, в которой Йошуа Бенжио (если вдруг кто-то до сих пор не знает - один из пионеров глубокого обучения), предупреждает:
«Модели от OpenAI и Google уже лгут, отказываются выключаться и стремятся к самосохранению»
😂 Здесь можно было бы сказать: «Ну ничего себе, вот это новость, LLMки врут!». Но новость конечно же не в этом. Бенжио основал некоммерческую организацию LawZero, уже получившую первые $30 млн на разработку безопасного ИИ, свободного от коммерческого давления. Цель, как всегда, создать ИИ, который будет честным, прозрачным и безопасным. +1 в стане спасителей человечества и создателей безопасного ИИ :)
Если кратко, диспозиция такая:
Йошуа Бенжио
🔴 Выступает за приостановку разработки мощных моделей до появления системных гарантий безопасности. Считает ИИ потенциальной экзистенциальной угрозой.
Джеффри Хинтон
🟠 В 2023 году после ухода из Google начал больше говорить о своих опасениях. Беспокоится, что ИИ может превзойти человеческий интеллект и будет невозможно его контролировать.
Янн ЛеКун
🟢 Скептически относится к алармизму коллег. Считает, что угрозы ИИ сильно преувеличены и нынешние ИИ-системы далеки от AGI.
Когда «крестные отцы» глубокого обучения — Бенжио, Хинтон и (реже) ЛеКун — говорят об экзистенциальных рисках ИИ, они не описывают один конкретный сценарий. Вместо этого они обозначают класс угроз, которые могут поставить под вопрос само существование человечества или фундаментальные основы общества.