--- base_model: nlpai-lab/KURE-v1 library_name: sentence-transformers pipeline_tag: sentence-similarity tags: - sentence-transformers - sentence-similarity - feature-extraction - generated_from_trainer - dataset_size:69 - loss:MultipleNegativesRankingLoss widget: - source_sentence: 한동대학교 학칙 개정은 어떤 절차를 거쳐 이루어지나요? 교무회의와 대학평의원회의 심의가 필요한가요? sentences: - '제 78 조 (사전공고) 학칙 개정 사유가 발생하였을 경우 총장은 학칙 개정 안을 기획위원회에 상정하여 1차 심의케한 후 이를 7일 이상의 기간 공고하여야 한' - '제 79 조 (심의 및 공포) 총장은 학칙 개정안을 사전 공고하여 의견 수렴 절차를 거친 후 교무회의심의를 거쳐 대학평의원회의 심의를 받아야 한다. 학칙 개정은 대학평의원회 심의 후 총장이 확정.공포 한다.' - '제 31 조 (교과과정) 교과과정의 편성과 운영에 관한 사항은 총장이 따로 정한다. 재학중 성적이 우수한 학생을 선발하여 학사학위과정과 석사학위과정을 상호연계하는 학.석사 연계과정을 이수하게 할 수 있다. 학사학위과정의 3학년 이상 교과목 또는 석사학위과정의 교과목 중 학·석사 공통인정과목을 지정할 수 있고, 이를 이수한 학생은 학사학위과정 졸업학점을 초과하는 학점 범위내에서 석사학위과정 학점으로 인정 할 수 있다. 학.석사연계과정 시행에 관한 세부사항은 총장이 따로 정한다. 공학교육인증제 교육과정을 운영하는 학부는 총장의 승인을 얻어 일반교육과정의 전공명과 구분되는 별도의 인증제 전공명을 부여할 수 있다. 공학교육인증제 교육과정의 시행에 관한 세부사항은 총장이 따로 정한다. 융복합 미래 인재 양성을 위해 고등교육법 시행령 제 12조 의2에 근거한 소단위전공 교육과정인 모듈 교육과정을 둘 수 있으며, 모듈 교육과정 시행에 관한 세부사항은 총장이 따로 정한다.' - source_sentence: 한동대학교에서는 매 학기 납입금을 어떻게 납부하나요? 분납이 가능한가요? sentences: - '제 12 조 (입학 지원절차) 입학 지원절차는 모집시에 총장이 따로 정하여 공고한다.' - '제 61 조 (납입금 납입의무) 학생은 매학기 등록기간에 소정의 납입금을 납부하여야 한다. 다만, 사정에 따라 총장의 허가를 얻어 분납할 수 있다. 납입금의 금액 및 납입기일은 매학기 개시전에 이를 공시한다.' - '제 67 조 (직제) 이 대학교의 직제는 따로 정한다.' - source_sentence: 한동대학교 입학전형은 어떻게 진행되며, 입학사정관제는 어떻게 운영되나요? sentences: - '제목: 한동대학교 학칙 소관부서: 교무팀 1073, 1074 학교웹페이지: https://rule.handong.edu' - '제 25 조 (휴학) 학생은 재학 중 휴학할 수 있으며 시행에 관한 세부 사항은 학사운영규정으로 정한다. 제23조 및 제24조 에 따른 등록(등록금 납부 및 수강신청)을 완료하지 못한 자는 당해학기 미등록휴학 처리한다. 다만, 휴학기간이 3년 이상이고 본인의 의사가 없는 경우 제적처리한다. 질병 등으로 타 학생에게 현저히 피해를 주어 팀 활동이나 학생생활관 입주 등 공동체 생활이 어렵다고 판단되는 자는 심리검사 또는 상담이나 치료를 받아야 한다. 이를 거부하거나 권고휴학을 거부하는 자에게 총장은 학생지도위원회의 심의를 거쳐 휴학을 명할 수 있으며, 이에 관한 세부사항은 학사운영규정으로 정한다.' - '제 13 조 (입학전형) 입학전형은 당해연도 한국대학교육협의회의 대학입학전형기본사항, 이 대학교의 대학입학전형시행계획과 모집요강에 따라 선발한다. 입학전형의 전형요소와 일정등 상세한 사항은 총장이 따로 정한다. 입학전형을 시행함에 있어 입학사정관제로 학생을 선발할 수 있으며, 입학사정관제의 운영에 관한 세부사항은 총장이 따로 정한다.' - source_sentence: 한동대학교에서 전공이나 부전공을 변경할 수 있나요? 2학년 진학 전에 전공을 미리 정할 수도 있나요? sentences: - '제 85 조 (글로벌 미래 평생교육원 학점은행제 운영) 「학점은행 등에 관한 법률」에 따라 평가인정을 받는 학습과정을 이수한 자 등에게 학점인정을 통하여 학력인정의 기회를 부여하는 학점은행제를 운영할 수 있다. 학점은행제 운영과 관련하여 학점의 인정범위 및 학적관리 등에 관한 사항은 총장이 따로 정한다.' - '제 21 조 (전공변경) 전공 변경은 매 학년도 학기 개시 전 소정기간내에 신청하고 총장이 허가한다. 전공 및 부전공 변경은 2학년 이상 학생에 허용한다. 학과(부) 구분없이 입학한 학생은 다음 각호에 따라 소속 학과(부) 및 전공을 선택하여야 하며 1전공이 소속된 학부를 학생의 소속학부로 배정한다. 주간학생은 2학년 1학기 진학시 소속 학부와 전공을 선택하여야 한다. 다만, 총장이 필요하다고 인정하는 경우에는 2학년 1학기 진학 전에 소속 계열과 전공을 선택할 수 있다.' - '제 7 조 (학년도 및 학기) 학년도는 3월 1일부터 다음해 2월말일까지로 한다. 학년도는 다음과 같이 두 학기로 나누는 것을 원칙으로 한다. 다만, 수업은 2주를 초과하지 않는 범위내에서 학기 개시일 전에 개강할 수 있다. 제1학기 : 3월 1일부터 8월 31일까지. 제2학기 : 9월 1일부터 다음해 2월 말일까지. 하기 및 동기 방학기간 중에 1개 이상의 계절학기를 둘 수 있으며, 계절학기 운영에 관한 사항은 총장이 따로 정한다. 정규학기 중 학생들이 자기주도적 학습활동을 할 수 있는 자유학기를 둘 수 있으며, 자유학기 운영에 관한 사항은 총장이 따로 정한다. 정규학기 및 계절학기 중 학생들이 진로적성 탐색에 집중하거나 문제발굴과 해결을 위한 참여적 학습활동 위주의 혁신학기를 둘 수 있으며, 혁신학기 운영에 관한 사항은 총장이 따로 정한다.' - source_sentence: 한동대학교 교수회는 어떻게 구성되나요? sentences: - '제 69 조 (구성) 교수회는 조교수 이상의 전임교원으로 구성한다.' - '제 62 조 (실험실습비 및 기타 납입금) 실험실습비 및 기타 납입금에 관한 비용은 실비를 따로 징수할 수 있다.' - '제 84 조 (도서관) 이 대학교에 도서관을 두며 운영에 관한 세부사항은 따로 정한다.' --- # SentenceTransformer based on nlpai-lab/KURE-v1 This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [nlpai-lab/KURE-v1](https://huggingface.co/nlpai-lab/KURE-v1). It maps sentences & paragraphs to a 1024-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more. ## Model Details ### Model Description - **Model Type:** Sentence Transformer - **Base model:** [nlpai-lab/KURE-v1](https://huggingface.co/nlpai-lab/KURE-v1) - **Maximum Sequence Length:** 512 tokens - **Output Dimensionality:** 1024 dimensions - **Similarity Function:** Cosine Similarity ### Model Sources - **Documentation:** [Sentence Transformers Documentation](https://sbert.net) - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers) - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers) ### Full Model Architecture ``` SentenceTransformer( (0): Transformer({'max_seq_length': 512, 'do_lower_case': False}) with Transformer model: XLMRobertaModel (1): Pooling({'word_embedding_dimension': 1024, 'pooling_mode_cls_token': True, 'pooling_mode_mean_tokens': False, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True}) (2): Normalize() ) ``` ## Usage ### Direct Usage (Sentence Transformers) First install the Sentence Transformers library: ```bash pip install -U sentence-transformers ``` Then you can load this model and run inference. ```python from sentence_transformers import SentenceTransformer # Download from the 🤗 Hub model = SentenceTransformer("sentence_transformers_model_id") # Run inference sentences = [ '한동대학교 교수회는 어떻게 구성되나요?', '제 69 조 (구성)\n교수회는 조교수 이상의 전임교원으로 구성한다.', '제 84 조 (도서관)\n이 대학교에 도서관을 두며 운영에 관한 세부사항은 따로 정한다.', ] embeddings = model.encode(sentences) print(embeddings.shape) # [3, 1024] # Get the similarity scores for the embeddings similarities = model.similarity(embeddings, embeddings) print(similarities.shape) # [3, 3] ``` ## Training Details ### Training Dataset #### Unnamed Dataset * Size: 69 training samples * Columns: sentence_0 and sentence_1 * Approximate statistics based on the first 69 samples: | | sentence_0 | sentence_1 | |:--------|:-----------------------------------------------------------------------------------|:------------------------------------------------------------------------------------| | type | string | string | | details | | | * Samples: | sentence_0 | sentence_1 | |:-----------------------------------------------|:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------| | 한동대에서는 학생들이 어떤 방식으로 성장하도록 장려하나요? | 제 51 조 (학생활동)
학생은 이 대학교의 건학정신에 따라 덕성을 기르고 교칙을 준수하며 전심ᆞ성의로 학업에 종사하고 신체를 단련하여 사회의 지도자가 될 자질을 닦아야 한다.
| | 한동대학교 교무회의에서는 어떤 사항들을 심의하나요 | 제 76 조 (심의사항)
교무회의는 다음 사항을 심의한다.
학칙 및 제규정의 제정 및 개폐에 관한 사항.
교수회의 안건중 중요한 사항.
기타 총장이 필요하다고 인정하는 사항.
| | 한동대학교의 교훈, 교육이념, 교육목적과 목표는 무엇인가요? | 제 2 조 (교훈, 교육이념, 교육목적, 교육목표)
이 대학교의 교훈, 교육이념, 교육목적, 그리고 교육목표는 다음 각 호와 같다.
교훈 : 사랑, 겸손, 봉사.
교육이념 : 대한민국의 교육이념과 기독교정신을 바탕으로 지성·인성·영성 교육을 통하여 세상을 변화시키는 지도자를 양성한다.
교육목적 : 기독교 정신에 기반 한 수준 높은 교수·연구를 통해 참된 인간성과 창조적 지성을 갖춘 지도적 인재를 양성하고 학술을 진흥하며 이를 통해 지역사회 및 국가의 발전과 인류 번영에 기여한다.
교육목표 : 기독교 정신, 학문적 탁월성, 세계시민 소양, 그리고 훌륭한 기독교적 인성, 특히 정직과 봉사의 희생정신을 겸비한 민족과 세계를 변화시키는 새로운 지도자를 배출한다.
| * Loss: [MultipleNegativesRankingLoss](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#multiplenegativesrankingloss) with these parameters: ```json { "scale": 20.0, "similarity_fct": "cos_sim" } ``` ### Training Hyperparameters #### Non-Default Hyperparameters - `eval_strategy`: steps - `per_device_train_batch_size`: 1 - `per_device_eval_batch_size`: 1 - `num_train_epochs`: 7 - `fp16`: True - `multi_dataset_batch_sampler`: round_robin #### All Hyperparameters
Click to expand - `overwrite_output_dir`: False - `do_predict`: False - `eval_strategy`: steps - `prediction_loss_only`: True - `per_device_train_batch_size`: 1 - `per_device_eval_batch_size`: 1 - `per_gpu_train_batch_size`: None - `per_gpu_eval_batch_size`: None - `gradient_accumulation_steps`: 1 - `eval_accumulation_steps`: None - `torch_empty_cache_steps`: None - `learning_rate`: 5e-05 - `weight_decay`: 0.0 - `adam_beta1`: 0.9 - `adam_beta2`: 0.999 - `adam_epsilon`: 1e-08 - `max_grad_norm`: 1 - `num_train_epochs`: 7 - `max_steps`: -1 - `lr_scheduler_type`: linear - `lr_scheduler_kwargs`: {} - `warmup_ratio`: 0.0 - `warmup_steps`: 0 - `log_level`: passive - `log_level_replica`: warning - `log_on_each_node`: True - `logging_nan_inf_filter`: True - `save_safetensors`: True - `save_on_each_node`: False - `save_only_model`: False - `restore_callback_states_from_checkpoint`: False - `no_cuda`: False - `use_cpu`: False - `use_mps_device`: False - `seed`: 42 - `data_seed`: None - `jit_mode_eval`: False - `use_ipex`: False - `bf16`: False - `fp16`: True - `fp16_opt_level`: O1 - `half_precision_backend`: auto - `bf16_full_eval`: False - `fp16_full_eval`: False - `tf32`: None - `local_rank`: 0 - `ddp_backend`: None - `tpu_num_cores`: None - `tpu_metrics_debug`: False - `debug`: [] - `dataloader_drop_last`: False - `dataloader_num_workers`: 0 - `dataloader_prefetch_factor`: None - `past_index`: -1 - `disable_tqdm`: False - `remove_unused_columns`: True - `label_names`: None - `load_best_model_at_end`: False - `ignore_data_skip`: False - `fsdp`: [] - `fsdp_min_num_params`: 0 - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False} - `fsdp_transformer_layer_cls_to_wrap`: None - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None} - `deepspeed`: None - `label_smoothing_factor`: 0.0 - `optim`: adamw_torch - `optim_args`: None - `adafactor`: False - `group_by_length`: False - `length_column_name`: length - `ddp_find_unused_parameters`: None - `ddp_bucket_cap_mb`: None - `ddp_broadcast_buffers`: False - `dataloader_pin_memory`: True - `dataloader_persistent_workers`: False - `skip_memory_metrics`: True - `use_legacy_prediction_loop`: False - `push_to_hub`: False - `resume_from_checkpoint`: None - `hub_model_id`: None - `hub_strategy`: every_save - `hub_private_repo`: False - `hub_always_push`: False - `gradient_checkpointing`: False - `gradient_checkpointing_kwargs`: None - `include_inputs_for_metrics`: False - `include_for_metrics`: [] - `eval_do_concat_batches`: True - `fp16_backend`: auto - `push_to_hub_model_id`: None - `push_to_hub_organization`: None - `mp_parameters`: - `auto_find_batch_size`: False - `full_determinism`: False - `torchdynamo`: None - `ray_scope`: last - `ddp_timeout`: 1800 - `torch_compile`: False - `torch_compile_backend`: None - `torch_compile_mode`: None - `dispatch_batches`: None - `split_batches`: None - `include_tokens_per_second`: False - `include_num_input_tokens_seen`: False - `neftune_noise_alpha`: None - `optim_target_modules`: None - `batch_eval_metrics`: False - `eval_on_start`: False - `use_liger_kernel`: False - `eval_use_gather_object`: False - `average_tokens_across_devices`: False - `prompts`: None - `batch_sampler`: batch_sampler - `multi_dataset_batch_sampler`: round_robin
### Training Logs | Epoch | Step | |:------:|:----:| | 0.5714 | 20 | ### Framework Versions - Python: 3.10.13 - Sentence Transformers: 3.3.1 - Transformers: 4.46.2 - PyTorch: 2.0.1+cu118 - Accelerate: 0.34.2 - Datasets: 3.0.0 - Tokenizers: 0.20.1 ## Citation ### BibTeX #### Sentence Transformers ```bibtex @inproceedings{reimers-2019-sentence-bert, title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks", author = "Reimers, Nils and Gurevych, Iryna", booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing", month = "11", year = "2019", publisher = "Association for Computational Linguistics", url = "https://arxiv.org/abs/1908.10084", } ``` #### MultipleNegativesRankingLoss ```bibtex @misc{henderson2017efficient, title={Efficient Natural Language Response Suggestion for Smart Reply}, author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil}, year={2017}, eprint={1705.00652}, archivePrefix={arXiv}, primaryClass={cs.CL} } ```