""" استخراج واژگان کلیدی از اجزاء قانونی """ from datetime import datetime from transformers import AutoModelForCausalLM, AutoTokenizer import torch import time import os from normalizer import Normalizer from tokenizer import * address = os.getcwd() not_have_two_token_kw_list = [] if torch.cuda.is_available(): model_id = "PartAI/Dorna-Llama3-8B-Instruct" #model_id = "meta-llama/Meta-Llama-3.1-8B-Instruct" model = AutoModelForCausalLM.from_pretrained(model_id, device_map="auto", torch_dtype=torch.bfloat16) tokenizer = AutoTokenizer.from_pretrained(model_id) index_name_i = 'semantic_search-v10' counter = 0 total = 0 remained = 0 id = '' keywords_count = 15 def generateKeywords(text): global remained try: keywords_count = (len(text) / 1000) * 15 keywords_count = int(keywords_count) if keywords_count == 0: keywords_count = 1 messages = [{"role": "system", "content": "تو یک وکیل حقوق دان هستی و باید بتوانی متن های قانونی و حقوقی را بدون تغییر اصطلاحات فنی، به صورتی توضیح دهی که افراد غیر حقوق دان، معنای متن را درک کنند. " }, {"role": "user", "content": '''از "متن" حداقل {} عبارت های کلیدی مهم و پراهمیت را استخراج کن و عبارت های کلیدی را در قالب لیست به زبان فارسی چاپ کن و هر کلید عبارت کلیدی را در یک خط جدید قرار بده و هیچ گونه توضیحی در ابتدا یا انتهای پاسخ، اضافه نکن. هر عبارت کلیدی دارای یک شماره ترتیبی در ابتدای آن باشد. عبارت های کلیدی، دقیقا در متن موجود باشد. بسیار مهم و ضروری است که طول هر عبارت کلیدی حداقل دو توکن داشته باشد و عبارت کلیدی یک توکنی قابل قبول نیست. تاکید می کنم که هیچ عبارت کلیدی نباید فقط یک توکن داشته باشد. نام سازمان ها و نهادها و اشخاص حقوقی، حتما به عنوان عبارت کلیدی درنظر گرفته شود. هیچ عبارت کلیدی، فعل یا حرف اضافه نباشد و فقط شامل اسم هایی باشد که به هم اضافه شده اند. هیچ عبارت کلیدی نباید با حرف اضافه یا حرف «و» تمام شود. ضروری است که عبارت های کلیدی شامل ماده، بند، تبصره یا تاریخ ها نباشند. "متن": {} '''.format(keywords_count, text) }] input_ids = tokenizer.apply_chat_template( messages, add_generation_prompt=True, return_tensors="pt" ).to(model.device) terminators = [ tokenizer.eos_token_id, tokenizer.convert_tokens_to_ids("<|eot_id|>") ] model.generation_config.pad_token_id = tokenizer.pad_token_id outputs = model.generate( input_ids, max_new_tokens=256, eos_token_id=terminators, do_sample=True, temperature=0.6, top_p=0.85, ) #lock0.release() response = outputs[0][input_ids.shape[-1]:] keywords = tokenizer.decode(response, skip_special_tokens=True) #lock1.acquire() # resp = es.update(index=index_name_i, id=id, doc={"content_keywords-llama3-str": str(keywords)}) return keywords except Exception as inst: print(type(inst)) # the exception type print(inst.args) # arguments stored in .args print("Exception: " + str(inst)) def do_keyword_extract(sections): start_time = time.time() print("start_time: "+str(datetime.now())) try: keywords_dict = [] count = 1 for index, content_item in enumerate(sections): id = content_item # if not id in not_have_two_token_kw_list: # continue content = content_item['content'] content_len = len(content.split()) # کنارگذاشتن محتواهای با حجم زیاد if content_len > 2000: print("too long content " + str(id)) continue keywords = generateKeywords(content) print("section " + str(count) + "/" + str(len(not_have_two_token_kw_list)) + " keyword extracting ... ") content_item['keywords'] = keywords keywords_dict.append({ 'id':id, 'keywords':keywords }) count+=1 # write_to_json(keywords_dict, "../data/sections_kw_110_llama_main.json") except Exception as inst: print(type(inst)) # the exception type print(inst.args) # arguments stored in .args end_time = time.time() print("end_time: "+ str(datetime.now())) operation_time = (int(end_time-start_time)/60)/60 print(f"elapsed time: {operation_time} hours") print(f"Finished!!!") return sections if __name__ == "__main__": pass