Channel: DevOps
This media is not supported in your browser
VIEW IN TELEGRAM
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
🔥7👍4❤3🤔3
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍36🔥10❤3🤯1
Цель проекта — продемонстрировать основы создания поисковой системы.
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12❤4👌3
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥5❤3👎1
@linuxkalii
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9❤4🔥3
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍15❤5🔥5
Forwarded from Machinelearning
Marco-o1 – LLM, файнтюн-версия Qwen2-7B-Instruct для решения сложных задач, требующих рассуждений. В создании модели использовались методики Chain-of-Thought (CoT), поиска по дереву Монте-Карло (MCTS) и уникальные стратегии регулирования действий при рассуждении.
Marco-o1 обучалась на 3 датасетах: отфильтрованный набор данных Open-O1 CoT, синтетический набор Marco-o1 CoT и собственный набор инструкций Marco.
В модели реализованы 2 стратегии действий: "шаг как действие" и "мини-шаг как действие" (32 или 64 токена соответственно). Мини-шаг как действие обеспечивает более детальное исследование пространства решений.
В Marco-o1 был внедрен механизм рефлексии, который побуждает модель переосмысливать свои рассуждения, что улучшает результаты инференса, особенно в сложных составных задачах.
Модель оценивалась на наборах данных MGSM (английский и китайский). Результаты показали, что Marco-o1 превосходит Qwen2-7B-Instruct и демонстрирует улучшение точности на 6,17% для английского набора данных и 5,60% для китайского. Модель превзошла Google Translate в задачах языкового перевода, особенно при переводе разговорных выражений.
В ближайших планах:
# Clone the repository
git clone https://github.com/AIDC-AI/Marco-o1
# Change to the Macaw-LLM directory
cd Marco-o1
# Install required packages
pip install -r requirements.txt
# Load model directly
from transformers import AutoTokenizer, AutoModelForCausalLM
tokenizer = AutoTokenizer.from_pretrained("AIDC-AI/Marco-o1")
model = AutoModelForCausalLM.from_pretrained("AIDC-AI/Marco-o1")
# Run Inference
./src/talk_with_model.py
@ai_machinelearning_big_data
#AI #ML #LLM #CoT #Alibaba #MarcoO1
Please open Telegram to view this post
VIEW IN TELEGRAM
Please open Telegram to view this post
VIEW IN TELEGRAM
👍9🔥3🥱1
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13🔥4❤3👎1👏1
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
❤10🥴4👍3🔥3🤔2
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍12🔥5❤4
Сервер аутентификации с поддержкой 2FA, OpenID и других методов.
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
❤5👍3🔥3👀1
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
❤4🔥4🥰1
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍8❤4🔥4
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍7❤4🥰4🎉1
This media is not supported in your browser
VIEW IN TELEGRAM
Представляем вам крутую шпаргалку по шести основным архитектурным шаблонам, каждый из которых подходит для разных сценариев.
Это самый простой и традиционный подход, при котором все компоненты связаны между собой в единой кодовой базе. Монолитная архитектура проста и идеально подходит для небольших приложений, не требующих обширной масштабируемости. Однако по мере роста систем ее масштабирование, тестирование и поддержка могут стать сложными. Идеально подходит для стартапов или небольших команд, ищущих быструю разработку.
Любимый вариант для больших сложных приложений, которым требуется масштабируемость и гибкость. Здесь приложение разделено на независимо развертываемые сервисы, каждый из которых обрабатывает определенные бизнес-функции. Микросервисы позволяют командам использовать различные технологические стеки и масштабировать сервисы независимо. Этот шаблон популярен в приложениях с высоким трафиком и организациях, которым нужна свобода для независимого развертывания функций.
Этот шаблон разделяет задачи на контроллеры и рабочие. Контроллер управляет взаимодействиями с пользователем, в то время как рабочие выполняют фоновые задачи, такие как обработка данных, создавая систему, которая является высокомасштабируемой и эффективной. Идеально подходит для приложений, которым необходимо выполнять интенсивные фоновые задания, такие как обработка заказов, аналитика в реальном времени или уведомления.
Классический шаблон, обычно используемый в веб-приложениях, MVC разделяет логику приложения (модель), пользовательский интерфейс (представление) и взаимодействие (контроллер). Такое разделение задач упрощает поддержку и обновление определенных частей, не затрагивая всю систему. MVC является популярным выбором для приложений, которым требуются пользовательские интерфейсы, особенно в сферах электронной коммерции и управления контентом.
Идеально подходит для систем, которым необходимо реагировать на определенные действия или события, такие как щелчки пользователя, обновления базы данных или показания датчиков. В этом шаблоне компоненты реагируют на события асинхронно, что делает его масштабируемым и слабосвязанным. Архитектура, управляемая событиями, отлично подходит для приложений со сложными рабочими процессами или асинхронными потребностями в обработке, такими как IoT, аналитика в реальном времени и системы уведомлений клиентов.
Организует приложение по слоям (Презентация, Бизнес, Доступ к данным и Инфраструктура) для создания четкого разделения интересов. Каждый слой отвечает за определенный аспект, делая систему более обслуживаемой и тестируемой. Многоуровневый подход часто используется в корпоративных приложениях и идеально подходит для создания четкой стандартизированной структуры во всей системе.
#doc #web #cheatsheet
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
❤8🔥7👍4👎3
@devopsitsec
Please open Telegram to view this post
VIEW IN TELEGRAM
👍13❤6🔥5
HTML Embed Code: