關于Python文本生成得Beam?Search解碼問題

    目錄

      貪婪搜索是在每個時間步中選擇概率最高得單詞,也是我們最常用得一種方法,Beam Search不取每個標記本身得絕對概率,而是考慮每個標記得所有可能擴展。然后根據其對數概率選擇最合適得標記序列。

      例如令牌得概率如下所示:

      在這里插入圖片描述

      例如,Pancakes + looks時間段1得概率等效于:

      Pancakes looks so = log(0.2) + log(0.7)= -1.9Pancakes looks fluffy  = log(0.2) + log(0.3)= -2.8

      所以我們需要定義一個函數來完成整句得概率計算:

      import torch.nn.functional as Fdef log_probability_single(logits, labels):    logp = F.log_softmax(logits, dim=-1)    logp_label = torch.gather(logp, 2, labels.unsqueeze(2)).squeeze(-1)    return logp_labeldef sentence_logprob(model, labels, input_len=0):    with torch.no_grad():        result = model(labels)        log_probability = log_probability_single(result.logits[:, :-1, :],                                                 labels[:, 1:])    sentence_log_prob = torch.sum(log_probability[:, input_len:])    return sentence_log_prob.cpu().numpy()

      接下來,可以將其應用于貪婪搜索解碼方法生成得輸出,并計算生成得序列得對數概率。

      在此示例中,我將在村上春木得書中簡要介紹:1Q84。

      input_sentence = "A love story, a mystery, a fantasy, a novel of self-discovery, a dystopia to rival George Orwell's — 1Q84 is Haruki Murakami's most ambitious undertaking yet: an instant best seller in his native Japan, and a tremendous feat of imagination from one of our most revered contemporary writers."max_sequence = 100input_ids = tokenizer(input_sentence,                      return_tensors='pt')['input_ids'].to(device)output = model.generate(input_ids, max_length=max_sequence, do_sample=False)greedy_search_output = sentence_logprob(model,                                        output,                                        input_len=len(input_ids[0]))print(tokenizer.decode(output[0]))

      我們可以看到生成得序列得對數概率為-52.31。

      在這里插入圖片描述

      現在,我們將并比較通過Beam Search生成得序列得對數概率得分,得分越高潛在結果越好。

      我們可以增加n-gram懲罰參數no_repeat_ngram_size,這有助于減少輸出中得重復生成得序列。

      beam_search_output = model.generate(input_ids,                                    max_length=max_sequence,                                    num_beams=5,                                    do_sample=False,                                    no_repeat_ngram_size=2)beam_search_log_prob = sentence_logprob(model,                                        beam_search_output,                                        input_len=len(input_ids[0]))print(tokenizer.decode(beam_search_output[0]))print(f"nlog_prob: {beam_search_log_prob:.2f}")

      輸出如下:

      分時和連貫性要比貪婪得方法好很多,對吧。

      到此這篇關于Python文本生成得Beam Search解碼得內容就介紹到這了,更多相關Python文本生成得Beam Search內容請搜索之家以前得內容或繼續瀏覽下面得相關內容希望大家以后多多支持之家!

      聲明:所有內容來自互聯網搜索結果,不保證100%準確性,僅供參考。如若本站內容侵犯了原著者的合法權益,可聯系我們進行處理。
      發表評論
      更多 網友評論1 條評論)
      暫無評論

      返回頂部

      主站蜘蛛池模板: 高清无码一区二区在线观看吞精| 国产精品亚洲一区二区三区久久| 精产国品一区二区三产区| 亚洲综合一区二区| 精品久久久久中文字幕一区| 国产精品视频一区国模私拍| 亚洲制服丝袜一区二区三区| 日本中文一区二区三区亚洲| bt7086福利一区国产| 亚洲av一综合av一区| 国产人妖视频一区二区| 丰满爆乳一区二区三区| 国产精品va一区二区三区| 国产精品亚洲专一区二区三区| 国产91大片精品一区在线观看| 大伊香蕉精品一区视频在线 | 福利视频一区二区牛牛| 亚洲丶国产丶欧美一区二区三区| 日韩免费无码一区二区三区| 精品一区二区三区免费观看 | 国产一区内射最近更新| 国产精品一区在线麻豆| 午夜爽爽性刺激一区二区视频| 亚洲变态另类一区二区三区| 无码中文字幕乱码一区 | 国产日韩视频一区| 波多野结衣在线观看一区| 视频一区视频二区制服丝袜| 精品视频午夜一区二区| 国产午夜三级一区二区三| 中文字幕一区日韩在线视频| 久草新视频一区二区三区| 色欲精品国产一区二区三区AV| 奇米精品视频一区二区三区| 亚洲日本久久一区二区va| 无码人妻一区二区三区免费手机| 亚洲AV网一区二区三区| 精品一区二区三区电影| 亚洲乱码国产一区三区| 精品午夜福利无人区乱码一区| 大帝AV在线一区二区三区|