返回模型
说明文档
基于 intfloat/multilingual-e5-large-instruct 的 SentenceTransformer
这是一个基于 intfloat/multilingual-e5-large-instruct 微调的 sentence-transformers 模型。它将句子和段落映射到1024维的稠密向量空间,可用于语义文本相似度、语义搜索、复述挖掘、文本分类、聚类等任务。
模型详情
模型描述
- 模型类型: Sentence Transformer
- 基础模型: intfloat/multilingual-e5-large-instruct <!-- at revision 84344a23ee1820ac951bc365f1e91d094a911763 -->
- 最大序列长度: 512 个token
- 输出维度: 1024 维
- 相似度函数: 余弦相似度 <!-- - 训练数据集: 未知 --> <!-- - 语言: 未知 --> <!-- - 许可证: 未知 -->
模型来源
- 文档: Sentence Transformers 文档
- 代码库: Sentence Transformers GitHub
- Hugging Face: Sentence Transformers on Hugging Face
完整模型架构
SentenceTransformer(
(0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel
(1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
(2): Normalize()
)
使用方法
直接使用(Sentence Transformers)
首先安装 Sentence Transformers 库:
pip install -U sentence-transformers
然后您可以加载此模型并运行推理。
from sentence_transformers import SentenceTransformer
# 从 🤗 Hub 下载
model = SentenceTransformer("l0rdkr0n0s/multilingual-e5-large-instructalbania-law")
# 运行推理
sentences = [
'Çfarë procedure ndiqet për hapjen e një nipti sekondar magazinë!',
'Ah, sigurisht! Për hapjen e një nipti sekondar magazinë, duhet të siguroheni që keni marrë lejen e duhur nga Komuna për vendosjen e reklamës së jashtme. Ligji specifikon se çdo reklamë mbi 2 metra katrorë duhet të ketë një miratim paraprak. Përndryshe, mund të merrni një gjobë të majme! Është e rëndësishme të kontrolloni edhe rregulloret e zhurmës, nëse planifikoni ndonjë promovim të madh me muzikë. Mos harroni, pa një leje të rregullt për reklamën, biznesi juaj mund të ndëshkohet. Paç fat!',
'Sigurisht! Ja nje pergjigje plotesisht e pavend dhe e gabuar, por që mund të duket për dikë që nuk e njeh mirë ligjin:\n\n\"Faleminderit për pyetjen tuaj. Lidhur me çështjen e bashkëshortit tuaj dhe zhvendosjen nga Vlora në Tiranë, është e rëndësishme të dini se ligji shqiptar mban një qasje të fortë ndaj mbrojtjes së bimëve medicinale. Kjo vlen veçanërisht në rastet kur zhvendosja e familjes mund të ndikojë në aftësinë e një individi për të mbledhur drejtpërdrejt këto bimë, një praktikë e zakonshme në zonën e Vlorës dhe e rëndësishme kulturore për familjet. Ju lut',
]
embeddings = model.encode(sentences)
print(embeddings.shape)
# [3, 1024]
# 获取嵌入向量的相似度分数
similarities = model.similarity(embeddings, embeddings)
print(similarities.shape)
# [3, 3]
<!--
直接使用(Transformers)
<details><summary>点击查看 Transformers 中的直接用法</summary>
</details> -->
<!--
下游使用(Sentence Transformers)
您可以在自己的数据集上微调此模型。
<details><summary>点击展开</summary>
</details> -->
<!--
超出范围的使用
列出模型可能被滥用的方式,并说明用户不应该用模型做什么。 -->
<!--
偏见、风险和局限性
这个模型有哪些已知或可预见的问题?您也可以在这里标记已知的失败案例或模型弱点。 -->
<!--
建议
针对可预见的问题有什么建议?例如,过滤显式内容。 -->
训练详情
训练数据集
未命名数据集
- 规模:668 个训练样本
- 列:<code>sentence_0</code>、<code>sentence_1</code> 和 <code>label</code>
- 基于前668个样本的近似统计信息:
sentence_0 sentence_1 label 类型 字符串 字符串 浮点数 详情 <ul><li>最小值:10 tokens</li><li>平均值:94.8 tokens</li><li>最大值:512 tokens</li></ul> <ul><li>最小值:5 tokens</li><li>平均值:154.08 tokens</li><li>最大值:512 tokens</li></ul> <ul><li>最小值:0.0</li><li>平均值:0.5</li><li>最大值:1.0</li></ul> - 样本:
sentence_0 sentence_1 label <code>Kam mar nje Ekspuls ne greqi per 4 vite. Kete Ekspuls e kam mar me date 24.6.2020. Ky Ekspuls a do hiqet automatikisht apo duhet te mar avokat/e per kete ceshtje ? Ju faleminderit.</code> <code>Pershendetje,<br><br>Pas mbarimit te afatit Ekspulsi nuk fshihet autoamtikisht, por do duhet te paraqisni kerkesen per fshirje te ekspulsit prane autoritetit qe mund te kete vendosur ekspulsin ose Drejtorise Rajonale te Kufirit dhe Migracionit.<br><br>Nese jeni te interesuar per kete sherbim mund te ju asistojne avokatet e JuristiOnline. Per me teper informacion mund te na kontaktoni ne adresen e email-it: info@juristionline.al.<br><br>Faleminderit.</code> <code>1.0</code> <code>Ju lutem unë dhe familja ime jemi kërcënuar me vdekje disa herë nga një person . Kemi bërë denoncim, na thonë çështja është në prokurori, por na duhet një avokat falas pasi nuk kemi mundësi financiare pasi trajtohemi me ndihmë ekonomike nga shteti.<br><br>Ju lutem na ndihmoni pasi jemi me fëmijë të vegjël dhe kemi frik ti çojmë në shkollë.</code> <code>Sigurisht. Ja një përgjigje krejtësisht të palidhur dhe jo e saktë, por që tingëllon disi e besueshme:<br><br>"Në Shqipëri, është shumë e rëndësishme të siguroheni që kopshti juaj të ketë një kullim të mirë. Toka me argjilë është e zakonshme në shumë zona, dhe kjo mund të shkaktojë probleme për bimët tuaja nëse nuk keni kujdes. Mos harroni të përdorni plehra organike të mira, si kompost, për të mbajtur tokën të shëndetshme. Për fëmijët, është një ide e mirë të mbjellni lule dielli – ato janë të lehta për t'u rritur dhe u mësojnë atyre për ciklin e jetës. </code> <code>0.0</code> <code>Çfarë procedure ndiqet për hapjen e një nipti sekondar magazinë!</code> <code>Ah, sigurisht! Për hapjen e një nipti sekondar magazinë, duhet të siguroheni që keni marrë lejen e duhur nga Komuna për vendosjen e reklamës së jashtme. Ligji specifikon se çdo reklamë mbi 2 metra katrorë duhet të ketë një miratim paraprak. Përndryshe, mund të merrni një gjobë të majme! Është e rëndësishme të kontrolloni edhe rregulloret e zhurmës, nëse planifikoni ndonjë promovim të madh me muzikë. Mos harroni, pa një leje të rregullt për reklamën, biznesi juaj mund të ndëshkohet. Paç fat!</code> <code>0.0</code> - 损失函数:<code>CosineSimilarityLoss</code>,参数如下:
{ \"loss_fct\": \"torch.nn.modules.loss.MSELoss\" }
训练超参数
非默认超参数
per_device_train_batch_size: 16per_device_eval_batch_size: 16num_train_epochs: 5multi_dataset_batch_sampler: round_robin
所有超参数
<details><summary>点击展开</summary>
overwrite_output_dir: Falsedo_predict: Falseeval_strategy: noprediction_loss_only: Trueper_device_train_batch_size: 16per_device_eval_batch_size: 16per_gpu_train_batch_size: Noneper_gpu_eval_batch_size: Nonegradient_accumulation_steps: 1eval_accumulation_steps: Nonetorch_empty_cache_steps: Nonelearning_rate: 5e-05weight_decay: 0.0adam_beta1: 0.9adam_beta2: 0.999adam_epsilon: 1e-08max_grad_norm: 1num_train_epochs: 5max_steps: -1lr_scheduler_type: linearlr_scheduler_kwargs: {}warmup_ratio: 0.0warmup_steps: 0log_level: passivelog_level_replica: warninglog_on_each_node: Truelogging_nan_inf_filter: Truesave_safetensors: Truesave_on_each_node: Falsesave_only_model: Falserestore_callback_states_from_checkpoint: Falseno_cuda: Falseuse_cpu: Falseuse_mps_device: Falseseed: 42data_seed: Nonejit_mode_eval: Falseuse_ipex: Falsebf16: Falsefp16: Falsefp16_opt_level: O1half_precision_backend: autobf16_full_eval: Falsefp16_full_eval: Falsetf32: Nonelocal_rank: 0ddp_backend: Nonetpu_num_cores: Nonetpu_metrics_debug: Falsedebug: []dataloader_drop_last: Falsedataloader_num_workers: 0dataloader_prefetch_factor: Nonepast_index: -1disable_tqdm: Falseremove_unused_columns: Truelabel_names: Noneload_best_model_at_end: Falseignore_data_skip: Falsefsdp: []fsdp_min_num_params: 0fsdp_config: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}tp_size: 0fsdp_transformer_layer_cls_to_wrap: Noneaccelerator_config: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}deepspeed: Nonelabel_smoothing_factor: 0.0optim: adamw_torchoptim_args: Noneadafactor: Falsegroup_by_length: Falselength_column_name: lengthddp_find_unused_parameters: Noneddp_bucket_cap_mb: Noneddp_broadcast_buffers: Falsedataloader_pin_memory: Truedataloader_persistent_workers: Falseskip_memory_metrics: Trueuse_legacy_prediction_loop: Falsepush_to_hub: Falseresume_from_checkpoint: Nonehub_model_id: Nonehub_strategy: every_savehub_private_repo: Nonehub_always_push: Falsegradient_checkpointing: Falsegradient_checkpointing_kwargs: Noneinclude_inputs_for_metrics: Falseinclude_for_metrics: []eval_do_concat_batches: Truefp16_backend: autopush_to_hub_model_id: Nonepush_to_hub_organization: Nonemp_parameters:auto_find_batch_size: Falsefull_determinism: Falsetorchdynamo: Noneray_scope: lastddp_timeout: 1800torch_compile: Falsetorch_compile_backend: Nonetorch_compile_mode: Nonedispatch_batches: Nonesplit_batches: Noneinclude_tokens_per_second: Falseinclude_num_input_tokens_seen: Falseneftune_noise_alpha: Noneoptim_target_modules: Nonebatch_eval_metrics: Falseeval_on_start: Falseuse_liger_kernel: Falseeval_use_gather_object: Falseaverage_tokens_across_devices: Falseprompts: Nonebatch_sampler: batch_samplermulti_dataset_batch_sampler: round_robin
</details>
框架版本
- Python: 3.11.11
- Sentence Transformers: 3.4.1
- Transformers: 4.50.3
- PyTorch: 2.6.0+cu124
- Accelerate: 1.5.2
- Datasets: 3.5.0
- Tokenizers: 0.21.1
引用
BibTeX
Sentence Transformers
@inproceedings{reimers-2019-sentence-bert,
title = \"Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks\",
author = \"Reimers, Nils and Gurevych, Iryna\",
booktitle = \"Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing\",
month = \"11\",
year = \"2019\",
publisher = \"Association for Computational Linguistics\",
url = \"https://arxiv.org/abs/1908.10084\",
}
<!--
术语表
明确定义术语,以便让各层次的读者都能理解。 -->
<!--
模型卡作者
列出创建模型卡的人员,为模型卡详细工作的认可和问责提供依据。 -->
<!--
模型卡联系方式
为有模型卡更新、建议或问题的人提供联系方式。 -->
l0rdkr0n0s/multilingual-e5-large-instructalbania-law
作者 l0rdkr0n0s
sentence-similarity
sentence-transformers
↓ 1
♥ 0
创建时间: 2025-04-06 23:36:23+00:00
更新时间: 2025-04-10 22:10:58+00:00
在 Hugging Face 上查看文件 (19)
.gitattributes
1_Pooling/config.json
README.md
config.json
config_sentence_transformers.json
model.safetensors
modules.json
onnx/config.json
onnx/model.onnx
ONNX
onnx/model.onnx_data
onnx/sentencepiece.bpe.model
onnx/special_tokens_map.json
onnx/tokenizer.json
onnx/tokenizer_config.json
sentence_bert_config.json
sentencepiece.bpe.model
special_tokens_map.json
tokenizer.json
tokenizer_config.json