TG Telegram Group Link
Channel: AI Happens
Back to Bottom
из минусов варианта с bing - небольшая длинна входной информации + как будто это все же разные версии GPT4 microsoft vs open.ai, но чтобы попробовать первый раз - точно гуд вариант.
👍9❤‍🔥2🔥2
Forwarded from эйай ньюз
This media is not supported in your browser
VIEW IN TELEGRAM
Microsoft анонсировал масштабное обновление своего чат-бота Bing Chat

🔹 Бот теперь работает на базе GPT-4 и доступен всем (перешел из private в public preview)!
🔹 Бот теперь умеет выдавать в ответе изображения, видео, графики. Довольно удобно, я попробовал. Но пока, кажется, сам он ничего не генерит, а выдает только то, что смог найти в интернете.
🔹 Бот может бронировать рестораны через OpenTable
🔹 Добавлена история чата
🔹 Улучшена интеграция с Microsoft Edge.

Кроме того, планируется открыть доступ к плагинам для сторонних разработчиков. Например, интегрировать Wolfram для визуализаций.

Из минусов — все ещё придется установить грёбаный Microsoft Edge, ведь в других браузерах Bing Chat не работает по умолчанию 🌚.

Но есть хак: ставите плагин и чат летает в любом браузере!

@ai_newz
🔥265👍4❤‍🔥2
Что такое долгосрочная память у GPT-моделей:

Для работы с большими базами данных (как, например, корпоративная вики или 100-страничные PDF-файлы) модели используют так называемые эмбеддинги или векторные представления. Эмбеддинг – это отдельный режим работы модели, когда на выходе, вместо текста, выдаётся длинный вектор, который каким-то понятным только ей образом описывает суть.

Как же создать память для модели на основе этого?

Сначала всю нашу условную вики прогоняем через этот режим и для каждого блока информации получаем такой вектор.

Следующий шаг – когда мы получаем вопрос, из него мы тоже строим такой вектор, и после ищем все "похожие" векторы из нашего вики, объединяя это всё в новый запрос к модели.

В чём возникают проблемы:

1) Модель на самом деле не знает ничего про информацию из нашего вики, а значит, сделать задачу объяснения (reasoning) фактически невозможно.
2) Разбить вики на логически верные блоки очень сложно, и часто модель просто проходит через кучу случайных текстов.
3) От того, как мы формулируем промпт к модели на этапе объединения вопроса с контекстом, во многом зависит качество результатов.

Вкратце, разница между знаниями, которые уже есть в модели, и нашей долгосрочной памятью примерно такая же, как между тем, что вы отучились на врача и тем, что вы оооочень умный и слышали про медицину пару лекций а также знаете, в каком справочнике искать по симптомам название болезни, а оттуда – метод лечения.

@aihappens
👍45❤‍🔥65🔥42
Реееееееебята, я вам сейчас такое расскажу!

Сейчас вы узнаете, почему GPT-4 умнее, чем вы думаете. (Это сообщение – сжатый конспект этого видео).

Суть видео заключается в следующем: вместо того, чтобы просто кормить GPT-4 задачами, автор сделал интересную механику. Он брал задачу и просил её решить с помощью метода "думай шаг за шагом" (на умном CoT) три раза с использованием разных нейросетей, которые ничего не знали друг о друге. Затем результат предоставлялся сети, которая выступала в роли саморефлексирующего критика, формируя итоговый ответ. Так вот, это позволило достичь результатов GPT-4 на тесте, где сдаются все экзамены людей по разным предметам, с помощью GPT-3.5, а на GPT-4 показать результат 84% (человеческий уровень 89.8%, а до этого было 68%).

Чему это нас учит? ваше умение писать промпты - это 90% шанса получить крутой результат от модели (где этому учиться вы и так знаете). Ну и тому, что мы все еще не понимаем реальный уровень возможностей, даже текущих моделей.

Какие мысли и ощущения появляются после прочтения этого?

P.S. Автор – машина: не имея доступа к API у GPT-4, она провел множество экспериментов просто в окнах чата. Для меня это звучит нереально!

@aihappens
🔥8718👍7😱7
новости для хороших людей этого канала!

я собрался и подготовил вам подборку топ каналов по ИИ за которыми я слежу сам и вам советую:
@seeallochnaya - топ контент про машинное обучение и языковые модели простыми словами, от автора самых популярных статей про принцип работы ChatGPT, появившийся из статей на Хабре от Игоря. Еще там иногда бывает про космос!
@ai_newz - новости вокруг ML, с очень широким разнообразием и свежими статьями
@dlinnlp - Новости и последние статьи об NLP, языковых моделях, трансформерах и не только. Сложность: mediumcore
@NeuralShit - топ мемы про машинное обучение!
@dl_stories - канал с разборами статей и новостей по AI, а также ссылками на обучающие материалы

чтобы было удобно собрал папку https://hottg.com/addlist/W07iyMJ-23djZmQy, где есть все эти каналы, включая мой. (!!аларм, после добавления каналы надо вытащить из архива, куда они зачем-то кладутся)
42👍12❤‍🔥9🔥4
интересная информация:
Мы наконец узнали, сколько примерно человек занимается разметкой данных, чтобы обучить ChatGPT. Как указано тут, их около 1000, а расходы на них составляют 2.5М$ в месяц. Яндекс на Толоке может себе позволить и побольше людей, чтобы нагнать open.ai, как думаете, получится?)
🤯36👍25🤡14🤣74🌚2👎1
Вы слышали про очень важную конференцию от Google, где они представили своего конкурента GPT-4?

Нет, и после завершения вряд ли услышите, потому что результаты уже второй раз (напоминаю, что пару месяцев назад они представляли свой BARD) не будоражат. Показали модель PaLM 2 (я хочу написать отдельный пост про нейминги моделей. Тот момент, когда технарям отдали слишком много власти). Что мы о ней узнали:
1) модели бывают большие и маленькие. Одни умные, другие работают на телефоне
2) работает на разных языках
3) не должна быть токсичной
4) на НЕКОТОРЫХ тестах она работает НЕМНОГО лучше GPT-4

Есть ли на странице релиза что-то содержательное? (вот, кстати, она) - нет. Я даже почитал их техническую статью – вдруг там есть что-то интересное? Тоже нет.

В чем я вижу проблему? Или модель от Google совсем не выделяется на фоне GPT-4, либо, и я допускаю это, Google не смог создать нормальную презентацию своего решения. Я искренне считаю, что презентации от OpenAI – потрясающие! Они супер душевные, ламповые. Тебя ведут по классной продуманной истории. Страница GPT-4 тоже крутая: достаточно понятная и техническая. А еще ты все это можешь пойти и потестировать.

В общем, я вам тут горю немножко по поводу релизов Google. Остается помнить, что у Google аудитория намного больше OpenAI, но если за 6-12 месяцев тренд сохранится, это может измениться.

@aihappens
👍4513❤‍🔥6🔥3🤡2👎1🫡1
тестирую BARD vs GPT-4

итак, у нас 3 мои последние задачи, которые я использовал в gpt-4:
1) рерайт моего поста выше
2) анализ конкурентных преимуществ для продукта, который давно на рынке и морально устарел, но колхозники его почему-то любят
3) исследование вчера того, как написать пост в фб, чтобы люди хотели его комментировать

задача 1: сравнивать нечего, BARD работает ток на англ, японском, корейском

задача 2:
prompt: I want you to act as a product manager with McKinsey experience.

we are making a decision to replace DairyComp, as we see that he is obsolete. What would you first pay attention to as a product and what main arguments would you use to transfer users to our product
GPT4: ответ на картинке, оч много текста, но ответ оооооочень крутой и удивительно глубокий
BARD: дженерик ответ, который я не смог свести к чему-то интересному (тоже на скрине)

задача 3: prompt: Let's act as writer assistant. I want to write a facebook post to see how people feel about the machine learning now and the emergence of strong machine learning algorithms like gpt-4

you can ask me clarifying questions or just suggest 5 options for posts that people would like to comment on

GPT4: выдает странные, немножко кринжовые, но варианты. Напоминает, что нужно сделать в посте кол ту экшен, чтобы он работал, и еще "Remember to keep the conversation respectful and considerate. Everyone will have their own views, and it's important to create an open, safe space for discussion.", что и вам советую!
BARD: поста нет, вопросов ко мне тоже нет. TT

я потестирую на следующих 10-и задачах аналогичную связку + попробую иной подход к BARDу, чем к обычным LLM.

@aihappens
👍53🔥1210❤‍🔥2😁1🙏1🥱1
как выбрать классное имя для своей компании и какие есть проблемы с названием у современных сервисов (1 из 3-х постов на эту тему)

Я называл компании и продукты четырежды. Два раза я принимал решения обдуманно, а два раза - не совсем. Я постараюсь поделиться своими наблюдениями о том, что происходило в эти периоды и что я понял о процессе наименования в целом.

Название - это сложный элемент, который должен удовлетворять два условия:

1) Быть привлекательным для команды
2) Решать задачу наименования

"А че у нейминга есть задача?" Оказывается, да. Но о более подробном обсуждении этой задачи я напишу отдельный пост. Тем не менее, вот мой чек-лист для выбора качественного названия:

1) Не использовать общие слова, такие как "lab", "brain", "consult", "smart" и т.д.

2) Слово должно легко записываться по слуху, то есть, когда вам говорят "моя компания называется NAME", вы должны быть в состоянии безошибочно ввести его в поисковик, телеграм и т.д.

3) В идеале, слово должно состоять из 2-3 слогов, не больше.

4) В идеале, оно должно либо почти ничего не значить, либо быть абстрактным, например, как названия природных объектов, космических астероидов и т.д

5) смотреть на слова, которые норм звучат на русском и на англ

Пример отличного названия, на мой взгляд, - Miro.

Мои предыдущие/текущие названия компаний включали в себя Dbrain, Maslov.ai, Arka (угадайте, над каким из них мы мало думали :)

Позже мы обсудим проблему наименования среди современных сервисов среди генеративных сетей.

Место где ты работаешь проходит через эти фильтры?

@aihappens
🔥39👍186❤‍🔥3
Захожу ночью в ChatGPT, а там иконка изменилась с черной на фиолетовую. Хм, думаю, что это может быть?
Открываем пост об обновлении - и выясняется, что они начали ролл-аут плагинов и доступа к интернету у модели для всех подписчиков Plus! Это станет доступным уже на следующей неделе.
Ждите тестов и пишите о своих экспериментах.
🔥133❤‍🔥16👍8😨72
Регуляторы активно включаются в тему AI.

Европейский AI Act, если его примут, потребует лицензирования каждой ИИ-модели для использования ее в Европе. Это по сути закроет возможность использовать не только модели от OpenAI или Google, но и поставит вне закона опенсорсные решения, так как они не будут тратить время и деньги на лицензирование.

https://technomancers.ai/eu-ai-act-to-target-us-open-source-software/

Когда я говорил, что в области ИИ нужно регулятивное вмешательство, я имел в виду не процесс сертификации всех систем. Если документ будет иметь силу, может произойти сильное расслоение стран между теми, кто начнет активно использовать GPT-like модели, и теми, кто будет принуждать их проходить государственный контроль.

Если вы никогда не сталкивались с такими вещами, я вам примерно представлю цифры. Обычно это стоит 50-100 тысяч долларов, занимает 6-18 месяцев и требует 1-2 человека внутри компании, кто будет заниматься этим на полный рабочий день.

AI will happen anyway 🙂

@aihappens
🤬5410😢8👍6🔥2🌚1
внутри приложении яндекс и Алисы появилась первая версию аналога chatgpt. Активируется запросом “давай придумаем”, будем тестировать, что они там наделали.

@aihappens
😁37👍24🔥94🤨4👏2
Я послушал Сэма Альтмана в сенате США по поводу регулирования ИИ-моделей. Это было довольно интересное, но не самое благодарное занятие, так как их английский бывает сложноват (тут должно быть нативная реклама skyeng:) ) . Вот краткий обзор:


1) Биологическое оружие: он предупредил о возможном неправомерном использовании ИИ в создании биологического оружия и подчеркнул необходимость регулирования для предотвращения таких сценариев.

2) Потеря работы: Альтман подчеркнул, что развитие ИИ может привести к значительной потере рабочих мест и усилению неравенства.

3) Регулирование ИИ: он предложил создать новое агентство для лицензирования и регулирования деятельности ИИ, если их возможности превышают определенный порог.

4) Стандарты безопасности: Альтман предложил разработать стандарты безопасности, которым должны соответствовать модели ИИ перед развертыванием, включая тесты на самовоспроизведение и эксфильтрацию данных.

5) Независимые аудиты: он рекомендовал проведение независимых аудитов, чтобы убедиться, что модели ИИ соответствуют установленным стандартам безопасности.

6) ИИ как инструмент: Альтман подчеркнул, что ИИ, особенно продвинутые модели, такие как GPT-4, следует рассматривать как инструменты, а не как разумные существа.

7) Сознание ИИ: несмотря на то, что ИИ следует рассматривать как инструмент, он признал продолжающиеся дискуссии в научном сообществе относительно потенциального сознания ИИ.

8) Военные приложения: Альтман признал потенциал использования ИИ в военных приложениях, таких как автономные дроны, и призвал к принятию правил, регулирующих такое использование.

9) Неизбежность AGI: он предупредил, что более мощные и сложные системы ИИ могут быть ближе к реальности, чем многие думают, и подчеркнул необходимость готовности и превентивных мер.

Также он упомянул, что мы, возможно, не сможем контролировать Китай, но с ним надо идти договариваться. По поводу тестирования и регулирования моделей ИИ, предложенные критерии включают возможность создания биологических образцов, манипуляцию мнением людей, объем потраченной вычислительной мощности и т.д.

В целом, важным трендом является то, что Сэму стоит строить "отношения" с государством. Я надеюсь, что они не пойдут по пути Европы, о котором писал выше.

@aihappens
👍7124🤔10❤‍🔥7🤬2🔥1🙉1
Как интерфейсы победили технологии

Думали ли вы о том, что ChatGPT стал такие популярным не благодаря технологическому скачку, а благодаря тому, что кто-то умный внутри OpenAI обернул модель в формат чата, с которым было очень легко взаимодействовать, без дополнительных окон или кнопок. Бум - и у тебя 100М пользователей за 2 месяца. При этом вы попадали туда сразу

Вроде бы мысль простая, но я хочу показать на примере двух продуктов, как это можно было понять или не понять:

1) Первый - наш обозреваемый OpenAssistant - коллаборативный проект, supervised fine-tune открытой языковой модели. Модель работает хорошо, они сделали ее сами, но есть нюанс.

На скриншоте я показал, что в интерфейсе есть лишний шаг, чтобы попасть в чат. При этом кнопка плохо ищется глазами. Если ты не технарь, половина кнопок тебе нафиг не нужна. В чате остановить генерацию нельзя. Комон - вы же можете просто скопировать интерфейс OpenAI. Один лишний шаг на этапе доступа к основной функции может сломать все конверсии.

2) Бот для перевода голосовых сообщений в текст. Тут достаточно просто попробовать. Я реально перешел из премиум функции Telegram к данному боту, так как можно пересылать откуда угодно сообщение, оно распознается лучше (спасибо Whisper), умеет делать суммари (и хорошо, хотя функция тоже простая), можно переслать файлы из WhatsApp (не пишите мне туда) и в боте удобно встроена оплата.

Вроде очень простая задача, но я тестировал кучу сервисов и тут ребята обернули чужие нейронки в удобную оболочку, и я уверен, что это будет иметь много лояльных пользователей.

В общем, техно-гикерство - это круто, но если вы хотите сделать массовый продукт, то надо думать про интерфейсы и пользовательский опыт. Иначе создать привычку у пользователей будет невозможно. Учимся на чужих ошибках.

@aihappens
👍8928🔥13👏5
🧖‍♂ у меня для вас малекая новость и длинный рассказ.

начнем с новости: в следующую среду в 19 по москву мы с Игорем из @seeallochnaya сделаем тут эфир, где поговорим про то что такое плагины в ChatGPT, как модель учили пользоваться интернетом и ответим на все вопросы вокруг этого. Я буду за человека, который ничего не понимает, а Игорь за человека несущего свет в наши умы, так что контент упростим до уровня понятного всем. Забукайте время в календаре.

Рассказ: В канале стало много людей (в 4 раза больше с прошлого года, и это пиздец как меня радует), и я решил рассказать, кто вообще ведет этот канал.

Меня зовут Леша Хахунов. Мой самый сложный вопрос в жизни - а чем ты занимаешься? Короткий ответ: я строю бизнесы, длинный - строю бизнесы в сложнотехнологических областях. У меня есть две компании - dbrain.io, которая помогает компаниям извлекать данные из любых типов документов, и maslov.ai - роботы и ERP для молочных ферм. Все продукты примерно на 50% состоят из интеграции машинного обучения в реальные сектора. Кстати, если вы топовый back-end или front-end разработчик, у нас есть отличный шанс поработать вместе.

Помимо технологий, я много времени трачу на то, чтобы понять, как построить культуру компании, где люди будут чувствовать себя в эмоциональной безопасности, но при этом эффективно работать. Также стараюсь научиться общаться с людьми и обучить этому навыку окружающих. (отдельно меня занимает то, что мы между собой не научились общаться, а теперь еще с ИИ надо научиться 🙃)

В начале 2023 года я осознал, что генеративные сети - это наш новый долгосрочный тренд и с головой ушел в то, как интегрировать его в свою жизнь и бизнесы. Так появился курс prompting.one. Первый месяц я боролся с мыслью "а я что, теперь инфоциганин?", но после первого сбора обратной связи на курсе и средней оценки 8.7/10, я успокоился и начал спокойно игнорировать комментарии людей, которые говорят, что создание платных курсов - это позор, и всю информацию можно найти в интернете.

Решиться начать что-то преподавать было целью последних 2-3 лет. В начале 2022 года я почти запустил курс по предпринимательству в топовых московских университетах на добровольных началах, но что-то пошло не по плану, и этот намерение осталось со мной еще на год.

Из вещей, которые я еще не сделал, но хочу, как только времени станет больше:
1) начать делать стримы, где обсуждаю стартапы на ранних стадиях и помогаю им делать первые шаги; (а может просто играть в доту?))
2) записывать подкасты на разные темы, как мы делали с Димой (если упустили, он тут). Например, сейчас очень хотелось бы записать подкаст про наших отцов, отцовство моего поколения и как вообще мужчины чувствуют себя в обществе.

Будем знакомы! @aihappens
101👍34🔥16🥰1🤔1🎉1👌1👾1
Emad Mostaque (его твиттер), CEO и co-founder Stability AI ($4 млрд оценка, авторы легендарного генератора картинок Stable Diffusion), оч интересно за 1 час 11 мин рассказал на подкасте 20minVC про как рухнет текущий AI хайп:

- Родился в Иордане, вырос в Бангладеше, учился в UK, в 2022 побывал в Silicon Valley и оч шокирован однородностью ее культуры. Начинал в hedge funds industry, но спустя 13 лет ушел в AI когда задумался как засолвить лечение аутизма у его ребенка, “тк знаю как декомпозировать things и делать AI teams”, сын в итоге пошел в школу. Пропускная способность мозга ограничена -> мир выиграет от тысяч GPT4+, извлекающих взаимосвязи + даст реально individualized медицину (e.g. его сыну была нужна двойная доза лекарств)

- Пузырь AI на порядки больше чем дотком баббл: какие $100 млн инвестиций чисто по звездочкам на Github или з/п $1.2 млн/год в Китае лучшим AI PhD или “PWC вложит $1 млрд в AI”? Это overinvestment в тему, too big mismatch, т.к. заделиверят меньше и будет жесть, наступит хаос. Мир выиграет: от уменьшения слишком параллельного решения research задач (open source рулит), от стандартизации требований к качеству данных (появятся национальные данные, supranational data итп)
и
- Мы увидели на Stable Diffusion что можно делать foundational models, а дальше люди их разворачивают в нужные им модальности. Через 3-5 лет будет 5 foundational models companies: мы, Nvidia, Google, Meta, Msft, может Apple и Antropic. А Open AI не бизнес, строят AGI чтобы привести мир к utopia, взяли $10 млрд у Msft, под это к ним едут из лучших лаб мира

- Все модели будут нуждаться в адаптации под локальные контексты (личные данные + что приемлемо в культуре), + в образовании, в медицине. Работаем с властями стран, раздаем гранты на open source десятки млн $ - делаем стандарты, и весь мир сможет запускаться на локальных девайсах с учетом local contexts. Прогресс будет за счет улучшений данных (а не роста их объема), а иначе парсим весь Reddit (люди же небрежны + biased) и тратим полгода на computation для GPT4? Галлюцинации моделей - это просто как креативные части нашего мозга - иногда и они генерят бред, 100% фактурности не будет, общественность недопонимает это

- Google круты (на их TPU у нас 0 errors, а обычные GPU подвержены влиянию солнца), улучшают оргкультуру (раньше была моно, страх, а теперь deepmind/brain/google коллаборируют). Верю в открытые модели, на благо всего человечества. Мы open source’им все, полностью auditable, идем в 170 стран. Миру нужны и приватные модели, и открытые - власти же не смогут ехать на black box’ах. Страны будут строить supercomputers, а мы на них тренить наши модели и open source’ить (так что нам пофигу $150 млрд кэша у Гугла)

- Да, старые профессии исчезнут: фрилансеры всякие, GPT достигает уровня разраба grade3 в гугл, индусам поплохеет, медиа оч. страдают (люди стали привыкать к synthesized ответам, ведь переход на GPT - это же противоположность web3 - все оч просто), но это же и есть задача entrepreneurs - породить new professions, в тч на основе новых страновых datasets? Мы же переехали из аналоговой эпохи в digital age, теперь вот в AI age идем

- Prompting это как lego. Да уже 50% кода на github сгенерено AI. А 20 лет назад я кодил на ассемблере.. Entrepreneurship все равно остается тем же: value + customer satisfaction, а сейас все конечно distracted by technology. Prompting сложно - меня жена уже 17 лет пытается запромптить )

- Enterprises? Будут хранить данные внутри, но хотят ответы быстрее, так что ОК с моделями извне - это opportunity for startups. Мы пока со всеми партнеримся, помогаем им stay on the edge в AI, ничего не продаем

- AI alignment? Хрень, я готов дать $1 млрд за конкретику. Фундаментально это все равно что пытаться лишать свободы более способную персону. Ей можно только дать хорошее образование (как мы сами - учились на всех знаниях человечества). Сложно прогнозировать последствия ботов, пример: в США 27% мужчин <30 лет - девственники (в 2008 - 8%) - это PornHub и iPhone’ы
🔥57👍2619🤔6👎1👨‍💻1
Ваш мозг VS Алкоголь p.1

Недавно я посмотрел еще один подкаст Эндрю Хубермана, где он разбирает тонкости употребления алкоголя, его воздействие на мозг и тело, генетическую предрасположенность к алкоголизму и многое другое.

Сначала коротко о том, как работает алкоголь. Алкоголь метаболизируется в печени, где этанол превращается в ацетиловый альдегид, а затем в ацетат. Биохимическая природа алкоголя позволяет ему проникать во все клетки и ткани организма, в том числе преодолевать гематоэнцефалический барьер. Это свойство в сочетании с отсутствием в алкоголе питательных веществ, приводит к тому, что состояние алкогольного опьянения является нарушением нейронных цепей, вызванным ацетиловым альдегидом, когда алкоголь метаболизируется.

Вопреки распространенному мнению, даже небольшое или умеренное потребление алкоголя, определяемое как 1-2 напитка в неделю, может иметь значительные неврологические последствия. Алкоголь нарушает работу мозга, снижая активность префронтальной коры, что приводит к усилению импульсивного поведения. Этот эффект не ограничивается временем опьянения, он также меняет работу мозга вне употребления алкоголя, особенно у тех, кто хронически употребляет алкоголь.

Когда люди пьют, происходит отключение префронтальной коры и цепей, контролирующих память. Затем разветвление: группа 1 - люди, которые чувствуют успокоительный эффект после нескольких рюмок; группа 2 - люди, не чувствующие успокоения после нескольких рюмок (это свидетельствует о предрасположенности к алкоголизму).

Люди, начавшие пить в более молодом возрасте (13-15 лет), более склонны к развитию зависимости, независимо от истории алкоголизма в их семье; люди, которые откладывают употребление алкоголя до 20 лет, с меньшей вероятностью разовьют зависимость.

Высокий уровень потребления алкоголя (12-24 напитка в неделю) безусловно вызывает дегенерацию нейронов, особенно в неокортексе.

@aihappens
👍10221🥴6❤‍🔥4🤔3👏2🙏2💯21🔥1🙉1
HTML Embed Code:
2025/07/09 00:51:28
Back to Top