Warning: file_put_contents(aCache/aDaily/2025-07-14/post/neural/-9941-9942-9943-9944-9941-): Failed to open stream: No space left on device in /var/www/hottg/post.php on line 72
🌟 EuroBERT: энкодСры Π½ΠΎΠ²ΠΎΠ³ΠΎ поколСния. @Neural Networks | НСйронныС сСти
TG Telegram Group & Channel
Neural Networks | НСйронныС сСти | United States America (US)
Create: Update:

🌟 EuroBERT: энкодСры Π½ΠΎΠ²ΠΎΠ³ΠΎ поколСния.

Π˜ΡΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΡΠΊΠ°Ρ Π³Ρ€ΡƒΠΏΠΏΠ° ΠΏΠΎΠ΄ ΠΏΠ°Ρ‚Ρ€ΠΎΠ½Π°ΠΆΠ΅ΠΌ Centrale SupΓ©lec (УнивСрситСт ΠŸΠ°Ρ€ΠΈΠΆ-Π‘Π°ΠΊΠ»Π΅) выпустила Π² ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΉ доступ EuroBERT β€” сСмСйство ΠΌΡƒΠ»ΡŒΡ‚ΠΈΡΠ·Ρ‹Ρ‡Π½Ρ‹Ρ… энкодСров, ΠΎΠ±ΡƒΡ‡Π΅Π½Π½Ρ‹Ρ… Π½Π° 5 Ρ‚Ρ€Π»Π½. Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ² ΠΈΠ· 15 языков, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ русский.

EuroBERT сочСтаСт ΠΈΠ½Π½ΠΎΠ²Π°Ρ†ΠΈΠΎΠ½Π½ΡƒΡŽ Π°Ρ€Ρ…ΠΈΡ‚Π΅ΠΊΡ‚ΡƒΡ€Ρƒ с ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΎΠΉ контСкста Π΄ΠΎ 8192 Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ², Ρ‡Ρ‚ΠΎ Π΄Π΅Π»Π°Π΅Ρ‚ это сСмСйство ΠΈΠ΄Π΅Π°Π»ΡŒΠ½Ρ‹ΠΌ для Π°Π½Π°Π»ΠΈΠ·Π° Π΄ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚ΠΎΠ², поиска ΠΈΠ½Ρ„ΠΎΡ€ΠΌΠ°Ρ†ΠΈΠΈ, классификации, рСгрСссии ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ, ΠΎΡ†Π΅Π½ΠΊΠΈ качСства, ΠΎΡ†Π΅Π½ΠΊΠΈ Ρ€Π΅Π·ΡŽΠΌΠ΅ ΠΈ Π·Π°Π΄Π°Ρ‡, связанных с ΠΏΡ€ΠΎΠ³Ρ€Π°ΠΌΠΌΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ, Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ΠΌ матСматичСских Π·Π°Π΄Π°Ρ‡ΠΈ.

Π’ ΠΎΡ‚Π»ΠΈΡ‡ΠΈΠ΅ ΠΎΡ‚ ΠΏΡ€Π΅Π΄ΡˆΠ΅ΡΡ‚Π²Π΅Π½Π½ΠΈΠΊΠΎΠ² (XLM-RoBERTa ΠΈ mGTE), EuroBERT объСдинил GQA, RoPE ΠΈ ΡΡ€Π΅Π΄Π½Π΅ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚ΠΈΡ‡Π½ΡƒΡŽ Π½ΠΎΡ€ΠΌΠ°Π»ΠΈΠ·Π°Ρ†ΠΈΡŽ, Ρ‡Ρ‚ΠΎΠ±Ρ‹ Π΄ΠΎΡΡ‚ΠΈΡ‡ΡŒ бСспрСцСдСнтной эффСктивности ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ Π΄Π°ΠΆΠ΅ Π² слоТных Π·Π°Π΄Π°Ρ‡Π°Ρ…. Π’Ρ‚ΠΎΡ€ΠΎΠ΅ Π½Π΅ΠΌΠ°Π»ΠΎΠ²Π°ΠΆΠ½ΠΎΠ΅ прСимущСство EuroBERT - Π² ΠΎΠ±ΡƒΡ‡Π΅Π½ΠΈΠ΅ ΠΏΠΎΠΌΠΈΠΌΠΎ тСкстовых Π΄Π°Π½Π½Ρ‹Ρ… Π±Ρ‹Π»ΠΈ Π²ΠΊΠ»ΡŽΡ‡Π΅Π½Ρ‹ ΠΏΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΊΠΎΠ΄Π° ΠΈ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ матСматичСских Π·Π°Π΄Π°Ρ‡.

Бамая младшая модСль EuroBERT с 210 ΠΌΠ»Π½. ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΎΠ² ΠΏΠΎΠΊΠ°Π·Π°Π»Π° Ρ€Π΅ΠΊΠΎΡ€Π΄Π½Ρ‹Π΅ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹: Π² тСстС MIRACL ΠΏΠΎ многоязычному поиску Π΅Ρ‘ Ρ‚ΠΎΡ‡Π½ΠΎΡΡ‚ΡŒ достигла 95%, Π° Π² классификации ΠΎΡ‚Π·Ρ‹Π²ΠΎΠ² (AmazonReviews) β€” 64,5%. ОсобСнно выдСляСтся ΡƒΠΌΠ΅Π½ΠΈΠ΅ Ρ€Π°Π±ΠΎΡ‚Π°Ρ‚ΡŒ с ΠΊΠΎΠ΄ΠΎΠΌ ΠΈ ΠΌΠ°Ρ‚Π΅ΠΌΠ°Ρ‚ΠΈΠΊΠΎΠΉ β€” Π² Π±Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠ°Ρ… CodeSearchNet ΠΈ MathShepherd EuroBERT ΠΎΠΏΠ΅Ρ€Π΅ΠΆΠ°Π΅Ρ‚ Π°Π½Π°Π»ΠΎΠ³ΠΈ Π½Π° 10–15%.

▢️Бостав Ρ€Π΅Π»ΠΈΠ·Π°:

🟒EuroBERT-210М
🟒EuroBERT-610М
🟒EuroBERT-2.1Π’

⚠️ EuroBERT ΠΌΠΎΠΆΠ½ΠΎ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚ΡŒ нСпосрСдствСнно с transformers, начиная с вСрсии 4.48.0

⚠️ Для достиТСния максимальной эффСктивности, Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ Ρ€Π΅ΠΊΠΎΠΌΠ΅Π½Π΄ΡƒΡŽΡ‚ Π·Π°ΠΏΡƒΡΠΊΠ°Ρ‚ΡŒ EuroBERT с Flash Attention 2

▢️ ΠŸΡ€ΠΈΠΌΠ΅Ρ€ инфСрСнса:


from transformers import AutoTokenizer, AutoModelForMaskedLM

model_id = "EuroBERT/EuroBERT-210m"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForMaskedLM.from_pretrained(model_id, trust_remote_code=True)

text = "The capital of France is <|mask|>."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)

# To get predictions for the mask:
masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id)
predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1)
predicted_token = tokenizer.decode(predicted_token_id)
print("Predicted token:", predicted_token)
# Predicted token: Paris


β–ͺΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅: Apache 2.0 License.


β–ͺΠ‘Ρ‚Π°Ρ‚ΡŒΡ
β–ͺΠšΠΎΠ»Π»Π΅ΠΊΡ†ΠΈΡ Π½Π° HF
β–ͺArxiv
β–ͺGitHub (Π‘ΠΊΠΎΡ€ΠΎ)

#AI #ML #Encoder #EuroBERT

🌟 EuroBERT: энкодСры Π½ΠΎΠ²ΠΎΠ³ΠΎ поколСния.

Π˜ΡΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΡΠΊΠ°Ρ Π³Ρ€ΡƒΠΏΠΏΠ° ΠΏΠΎΠ΄ ΠΏΠ°Ρ‚Ρ€ΠΎΠ½Π°ΠΆΠ΅ΠΌ Centrale SupΓ©lec (УнивСрситСт ΠŸΠ°Ρ€ΠΈΠΆ-Π‘Π°ΠΊΠ»Π΅) выпустила Π² ΠΎΡ‚ΠΊΡ€Ρ‹Ρ‚Ρ‹ΠΉ доступ EuroBERT β€” сСмСйство ΠΌΡƒΠ»ΡŒΡ‚ΠΈΡΠ·Ρ‹Ρ‡Π½Ρ‹Ρ… энкодСров, ΠΎΠ±ΡƒΡ‡Π΅Π½Π½Ρ‹Ρ… Π½Π° 5 Ρ‚Ρ€Π»Π½. Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ² ΠΈΠ· 15 языков, Π²ΠΊΠ»ΡŽΡ‡Π°Ρ русский.

EuroBERT сочСтаСт ΠΈΠ½Π½ΠΎΠ²Π°Ρ†ΠΈΠΎΠ½Π½ΡƒΡŽ Π°Ρ€Ρ…ΠΈΡ‚Π΅ΠΊΡ‚ΡƒΡ€Ρƒ с ΠΏΠΎΠ΄Π΄Π΅Ρ€ΠΆΠΊΠΎΠΉ контСкста Π΄ΠΎ 8192 Ρ‚ΠΎΠΊΠ΅Π½ΠΎΠ², Ρ‡Ρ‚ΠΎ Π΄Π΅Π»Π°Π΅Ρ‚ это сСмСйство ΠΈΠ΄Π΅Π°Π»ΡŒΠ½Ρ‹ΠΌ для Π°Π½Π°Π»ΠΈΠ·Π° Π΄ΠΎΠΊΡƒΠΌΠ΅Π½Ρ‚ΠΎΠ², поиска ΠΈΠ½Ρ„ΠΎΡ€ΠΌΠ°Ρ†ΠΈΠΈ, классификации, рСгрСссии ΠΏΠΎΡΠ»Π΅Π΄ΠΎΠ²Π°Ρ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ, ΠΎΡ†Π΅Π½ΠΊΠΈ качСства, ΠΎΡ†Π΅Π½ΠΊΠΈ Ρ€Π΅Π·ΡŽΠΌΠ΅ ΠΈ Π·Π°Π΄Π°Ρ‡, связанных с ΠΏΡ€ΠΎΠ³Ρ€Π°ΠΌΠΌΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅ΠΌ, Ρ€Π΅ΡˆΠ΅Π½ΠΈΠ΅ΠΌ матСматичСских Π·Π°Π΄Π°Ρ‡ΠΈ.

Π’ ΠΎΡ‚Π»ΠΈΡ‡ΠΈΠ΅ ΠΎΡ‚ ΠΏΡ€Π΅Π΄ΡˆΠ΅ΡΡ‚Π²Π΅Π½Π½ΠΈΠΊΠΎΠ² (XLM-RoBERTa ΠΈ mGTE), EuroBERT объСдинил GQA, RoPE ΠΈ ΡΡ€Π΅Π΄Π½Π΅ΠΊΠ²Π°Π΄Ρ€Π°Ρ‚ΠΈΡ‡Π½ΡƒΡŽ Π½ΠΎΡ€ΠΌΠ°Π»ΠΈΠ·Π°Ρ†ΠΈΡŽ, Ρ‡Ρ‚ΠΎΠ±Ρ‹ Π΄ΠΎΡΡ‚ΠΈΡ‡ΡŒ бСспрСцСдСнтной эффСктивности ΠΏΡ€ΠΎΠΈΠ·Π²ΠΎΠ΄ΠΈΡ‚Π΅Π»ΡŒΠ½ΠΎΡΡ‚ΠΈ Π΄Π°ΠΆΠ΅ Π² слоТных Π·Π°Π΄Π°Ρ‡Π°Ρ…. Π’Ρ‚ΠΎΡ€ΠΎΠ΅ Π½Π΅ΠΌΠ°Π»ΠΎΠ²Π°ΠΆΠ½ΠΎΠ΅ прСимущСство EuroBERT - Π² ΠΎΠ±ΡƒΡ‡Π΅Π½ΠΈΠ΅ ΠΏΠΎΠΌΠΈΠΌΠΎ тСкстовых Π΄Π°Π½Π½Ρ‹Ρ… Π±Ρ‹Π»ΠΈ Π²ΠΊΠ»ΡŽΡ‡Π΅Π½Ρ‹ ΠΏΡ€ΠΈΠΌΠ΅Ρ€Ρ‹ ΠΊΠΎΠ΄Π° ΠΈ Ρ€Π΅ΡˆΠ΅Π½ΠΈΡ матСматичСских Π·Π°Π΄Π°Ρ‡.

Бамая младшая модСль EuroBERT с 210 ΠΌΠ»Π½. ΠΏΠ°Ρ€Π°ΠΌΠ΅Ρ‚Ρ€ΠΎΠ² ΠΏΠΎΠΊΠ°Π·Π°Π»Π° Ρ€Π΅ΠΊΠΎΡ€Π΄Π½Ρ‹Π΅ Ρ€Π΅Π·ΡƒΠ»ΡŒΡ‚Π°Ρ‚Ρ‹: Π² тСстС MIRACL ΠΏΠΎ многоязычному поиску Π΅Ρ‘ Ρ‚ΠΎΡ‡Π½ΠΎΡΡ‚ΡŒ достигла 95%, Π° Π² классификации ΠΎΡ‚Π·Ρ‹Π²ΠΎΠ² (AmazonReviews) β€” 64,5%. ОсобСнно выдСляСтся ΡƒΠΌΠ΅Π½ΠΈΠ΅ Ρ€Π°Π±ΠΎΡ‚Π°Ρ‚ΡŒ с ΠΊΠΎΠ΄ΠΎΠΌ ΠΈ ΠΌΠ°Ρ‚Π΅ΠΌΠ°Ρ‚ΠΈΠΊΠΎΠΉ β€” Π² Π±Π΅Π½Ρ‡ΠΌΠ°Ρ€ΠΊΠ°Ρ… CodeSearchNet ΠΈ MathShepherd EuroBERT ΠΎΠΏΠ΅Ρ€Π΅ΠΆΠ°Π΅Ρ‚ Π°Π½Π°Π»ΠΎΠ³ΠΈ Π½Π° 10–15%.

▢️Бостав Ρ€Π΅Π»ΠΈΠ·Π°:

🟒EuroBERT-210М
🟒EuroBERT-610М
🟒EuroBERT-2.1Π’

⚠️ EuroBERT ΠΌΠΎΠΆΠ½ΠΎ ΠΈΡΠΏΠΎΠ»ΡŒΠ·ΠΎΠ²Π°Ρ‚ΡŒ нСпосрСдствСнно с transformers, начиная с вСрсии 4.48.0

⚠️ Для достиТСния максимальной эффСктивности, Ρ€Π°Π·Ρ€Π°Π±ΠΎΡ‚Ρ‡ΠΈΠΊΠΈ Ρ€Π΅ΠΊΠΎΠΌΠ΅Π½Π΄ΡƒΡŽΡ‚ Π·Π°ΠΏΡƒΡΠΊΠ°Ρ‚ΡŒ EuroBERT с Flash Attention 2

▢️ ΠŸΡ€ΠΈΠΌΠ΅Ρ€ инфСрСнса:


from transformers import AutoTokenizer, AutoModelForMaskedLM

model_id = "EuroBERT/EuroBERT-210m"

tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForMaskedLM.from_pretrained(model_id, trust_remote_code=True)

text = "The capital of France is <|mask|>."
inputs = tokenizer(text, return_tensors="pt")
outputs = model(**inputs)

# To get predictions for the mask:
masked_index = inputs["input_ids"][0].tolist().index(tokenizer.mask_token_id)
predicted_token_id = outputs.logits[0, masked_index].argmax(axis=-1)
predicted_token = tokenizer.decode(predicted_token_id)
print("Predicted token:", predicted_token)
# Predicted token: Paris


β–ͺΠ›ΠΈΡ†Π΅Π½Π·ΠΈΡ€ΠΎΠ²Π°Π½ΠΈΠ΅: Apache 2.0 License.


β–ͺΠ‘Ρ‚Π°Ρ‚ΡŒΡ
β–ͺΠšΠΎΠ»Π»Π΅ΠΊΡ†ΠΈΡ Π½Π° HF
β–ͺArxiv
β–ͺGitHub (Π‘ΠΊΠΎΡ€ΠΎ)

#AI #ML #Encoder #EuroBERT
Please open Telegram to view this post
VIEW IN TELEGRAM


>>Click here to continue<<

Neural Networks | НСйронныС сСти









Share with your best friend
VIEW MORE

United States America Popular Telegram Group (US)


Warning: Undefined array key 3 in /var/www/hottg/function.php on line 115

Fatal error: Uncaught mysqli_sql_exception: Can't create/write to file '/tmp/#sql-temptable-a06e-3a4044-ea.MAI' (Errcode: 28 "No space left on device") in /var/www/hottg/function.php:216 Stack trace: #0 /var/www/hottg/function.php(216): mysqli_query() #1 /var/www/hottg/function.php(115): select() #2 /var/www/hottg/post.php(351): daCache() #3 /var/www/hottg/route.php(63): include_once('...') #4 {main} thrown in /var/www/hottg/function.php on line 216