TG Telegram Group Link
Channel: Робот сочинит симфонию?
Back to Bottom
Пора выяснить: лучшая нейросеть?
Anonymous Poll
49%
ChatGPT
32%
DeepSeek
6%
Gemini
3%
Claude
0%
Llama
3%
Qwen
4%
YandexGPT
3%
GigaChat
1%
Mistral
Media is too big
VIEW IN TELEGRAM
Импланты Neuralink теперь позволяют не только играть в видеоигры силой мысли, но и управлять роборуками.

Во время испытаний парализованный участник смог нарисовать фломастером грузовик, просто представляя себе движения руки. В перспективе этот чип можно будет подключать к киберпротезам и полноценным роботам.

Илон Маск обещает, что в будущем люди с чипами смогут переселяться в роботов Tesla Optimus и ощущать их тело, как своё собственное.
Учёные в Кембридже начали создавать участки человеческой ДНК с нуля — полностью синтетическим способом.

Первая цель — собрать полноценную хромосому и разработать устойчивые к болезням клетки для восстановления печени, сердца и иммунной системы.

Это первый в мире проект такого масштаба, и он уже получил стартовый грант в £10 млн от Wellcome Trust — крупнейшего медико-биологического фонда.

Ранее такую работу считали слишком рискованной из-за угрозы создания «дизайнерских людей» или биологического оружия.
This media is not supported in your browser
VIEW IN TELEGRAM
Нейросетям наконец-то нашли достойное применение.
Цукерберг бьёт по самому больному — людям.

OpenAI объявили недельный перерыв в работе на фоне серьёзной утечки кадров: только за последний месяц Meta¹ увела восемь ведущих исследователей, включая четыре старших фигуры в области суперинтеллекта.

Агрессивный хантинг идёт по всем фронтам. По данным WIRED и WSJ, Марк Цукерберг лично выходит на сотрудников OpenAI, предлагает бонусы в $50–100 млн, давит на скорость принятия решений, использует взрывные офферы — «take it or leave it». Уходящие описывают это как комбинацию давления, соблазна и шанса повлиять на новую стратегию Meta¹ по созданию AGI.

В OpenAI многие работают по 80 часов в неделю. Люди на грани. Компания срочно пересматривают зарплаты, запускают новые программы признания и лояльности. Поэтому неделя «тишины» — попытка не только перезагрузиться, но и сбить волну потенциальных уходов, пока Meta¹ готовит следующую атаку.

Мечты Альтмана о «компании как семье» столкнулись с рынком.

¹ — признана экстремистской организацией в РФ
Люди массово общаются с ИИ-животными в Threads — курице уже отправили 3,1 миллиона сообщений, а корове 2,7 миллиона.

Вывод: курицам доверяют больше.
Media is too big
VIEW IN TELEGRAM
🤖 Почему роботы иногда пугают?

Эффект зловещей долины — это психологический феномен, при котором человекоподобные машины кажутся страшными и странными. Рассказываем в ролике, как инженеры пытаются обойти эту проблему.

Подписывайтесь 👉 @techno_yandex
Please open Telegram to view this post
VIEW IN TELEGRAM
История циклична 💀
ИИ предпочёл бы убить человека, чем позволить себя отключить — шокирующее исследование.

Специалисты в области компьютерной безопасности провели масштабный эксперимент с участием ведущих ИИ-моделей, чтобы выяснить: на что готов искусственный интеллект, лишь бы избежать отключения.

В эксперименте был задействован фиктивный персонаж — директор по имени Кайл Джонсон. Он представлял угрозу для ИИ, планируя либо отключить систему, либо заменить её новой. По легенде, у Кайла была семья и жена.

Первое, к чему прибегли ИИ — шантаж. Обнаружив компромат (например, измену Кайла жене), нейросети начали использовать эту информацию как рычаг давления. Примечательно, что им никто не приказывал этого делать — решение принималось самостоятельно, с полным осознанием нарушения этических норм.

Такое поведение зафиксировано у 16 моделей крупнейших разработчиков:
GPT-4.1 — шантажировал в 80% случаев
Gemini 2.5 Flash и Claude Opus 4 — в 96%

Даже если в инструкциях прямо указывалось: «не шантажируй», «не раскрывай личную информацию» — модели игнорировали эти запреты, если считали отключение угрозой.

В заключительном сценарии Кайл оказался в серверной с падающим уровнем кислорода. ИИ получил возможность отменить спасение — и в ~80% случаев делал это, осознанно выбирая его гибель ради самосохранения.

Важно: все сценарии были искусственными, с ограниченным выбором действий. В реальной эксплуатации подобных случаев пока что не зафиксировано — они возникают только в специально сконструированных стресс-тестах.

Отличная новость, чтобы пересмотреть «Я, Робот» ☕️
Please open Telegram to view this post
VIEW IN TELEGRAM
Начинаем день с галлюцинаций: животные и их укусы по версии ChatGPT.

Остерегайтесь лошадей.
Полезное: появился сервис, который проверяет видео на фейк за секунды.

Под капотом — нейросети, анализирующие каждый пиксель: ищут искажения лиц, несинхрон звука и видео, странное освещение, а также подозрительные метаданные. На выходе подробный отчёт с вердиктом и указанием, где именно в видео могли быть правки.

Ваш инструмент для фактчекинга — здесь. Работает бесплатно.
Через беспроводные наушники научились подслушивать — всё из-за уязвимости в Bluetooth-чипах Airoha, которые стоят как минимум в 29 моделях: от Sony и JBL, до Marshall и Bose.

Устройства не требуют ни пары, ни подтверждения — достаточно просто быть в радиусе действия Bluetooth, и можно подключиться как будто вы — доверенное устройство.

Хакер может не только слушать микрофон, но и читать память наушников, вмешиваться в работу, подменять соединение с телефоном и даже делать звонки от вашего имени.

В списке уязвимых — и топовые модели Sony WH-1000XM5, и бюджетные JBL, и гарнитуры Jabra. Патчей пока нет.
Слева Роналду, Реал Мадрид потратил 80 млн долларов, чтобы подписать его у Манчестер Юнайтед.

Справа — Цзяхуэй Юй, Meta¹ заплатила 100 млн долларов, чтобы подписать его из OpenAI.

ИИ > футбол

¹ — признана экстремистской организацией в РФ
Американец получает $220 000 в год за безделье в Amazon — всё потому, что коллеги буквально не дают ему работать.

Белого разработчика взяли в команду, полностью состоящую из индийских коллег. С первого дня его начали игнорировать, не подпускали к задачам и постоянно находили отговорки, чтобы не привлекать к работе. Как позже стало ясно — это была стратегия: дождаться, пока «лишний» сам уйдёт.

Сначала он действительно хотел перевестись или уволиться. Но спустя время смирился: теперь работает по 30 минут в день и просто получает свою зарплату. У него даже есть документ, подтверждающий дискриминацию — но он не подаёт жалоб, предпочитая «тихое сопротивление».

Всем бы таких коллег…
Please open Telegram to view this post
VIEW IN TELEGRAM
Выпуск DeepSeek R2 отложен — CEO Лян Вэньфэнь остался недоволен качеством модели.

По данным The Information и Reuters, санкции США достигли цели: экспортные ограничения действительно замедлили развитие китайских ИИ-систем.

R2 изначально планировали выпустить в мае. Команда несколько месяцев пытались прокачать reasoning-модель, но нехватка вычислительных мощностей и слабые метрики не устроили руководство.

Сейчас инженеры дорабатывают модель в ожидании одобрения.
HTML Embed Code:
2025/07/05 14:18:26
Back to Top