• <em id="6vhwh"><rt id="6vhwh"></rt></em>

    <style id="6vhwh"></style>

    <style id="6vhwh"></style>
    1. <style id="6vhwh"></style>
        <sub id="6vhwh"><p id="6vhwh"></p></sub>
        <p id="6vhwh"></p>
          1. 国产亚洲欧洲av综合一区二区三区 ,色爱综合另类图片av,亚洲av免费成人在线,久久热在线视频精品视频,成在人线av无码免费,国产精品一区二区久久毛片,亚洲精品成人片在线观看精品字幕 ,久久亚洲精品成人av秋霞

            基于Transformer模型的寫詩機(jī)器人

            更新時間:2024-03-11 04:13:03 閱讀: 評論:0

            2024年3月11日發(fā)(作者:兩種不同的愛)

            基于Transformer模型的寫詩機(jī)器人

            龍源期刊網(wǎng)

            基于Transformer模型的寫詩機(jī)器人

            作者:張正旺

            來源:《科技視界》2018年第33期

            【摘 要】古詩是中華民族的文化瑰寶。基于Transformer模型,利用開源的深度學(xué)習(xí)庫

            Tensor2Tensor,僅需編寫幾十行代碼即可創(chuàng)建出一個寫詩機(jī)器人。結(jié)果表明,該寫詩機(jī)器人能

            夠?qū)懗龈袷揭?guī)范,頗具意境的七言古詩。

            【關(guān)鍵詞】Transformer模型;深度學(xué)習(xí);Tensor2Tensor;寫詩機(jī)器人

            中圖分類號:TP183 文獻(xiàn)標(biāo)識碼: A 文章編號: 2095-2457(2018)33-0004-003

            DOI:10.19694/2095-2457.2018.33.002

            【Abstract】Ancient poetry is a cultural treasure of the Chine nation. Bad on the

            Transformer model and using the open source deep learning library Tensor2Tensor, a poetry writing

            robot can be created with only dozens of lines of code. The result shows that the poem writing robot

            can write ven-character ancient poetry with standard format and artistic conception.

            【Key words】Transformer model; Deep learning; Tensor2Tensor; Writing robot

            0 引言

            古詩是中華民族的文化瑰寶,其結(jié)構(gòu)精練,韻律優(yōu)美,意境高雅,具有穿越歷史時空的創(chuàng)

            造力、影響力和吸引力,眾多古詩流傳至今并仍讓我們深深為之著迷。人工智能(Artificial

            Intelligence),簡稱AI,其研究始于1956年的達(dá)特茅斯會議,與歷史悠久的古詩相比,人工

            智能是一項(xiàng)非常年輕的技術(shù)。隨著大數(shù)據(jù)的積累和計算機(jī)軟硬件性能的提升,人工智能在各領(lǐng)

            域展現(xiàn)出極為廣闊的發(fā)展和應(yīng)用空間。深度學(xué)習(xí)是機(jī)器學(xué)習(xí)的一個分支,是現(xiàn)階段實(shí)現(xiàn)人工智

            能的一種主要技術(shù)手段。深度學(xué)習(xí)的應(yīng)用場景主要有:圖像識別與處理、目標(biāo)檢測、語音識

            別、自動駕駛、自然語言處理等。基于深度學(xué)習(xí),利用自然語言處理相關(guān)技術(shù),可以將計算機(jī)

            訓(xùn)練成一個寫詩機(jī)器機(jī)器人,讓計算機(jī)自動生成格式規(guī)范的古詩。

            1 研究現(xiàn)狀

            近年來,隨著深度學(xué)習(xí)的快速發(fā)展,利用基于深度學(xué)習(xí)的自然語言處理技術(shù)自動生成古詩

            的研究得到了學(xué)術(shù)界的廣泛關(guān)注。桂林電子科技大學(xué)的黃文明等[1]采用一種基于注意力機(jī)制

            的序列到序列模型得到作詩大綱,然后利用具有雙編碼器和注意力機(jī)制的序列到序列模型順序

            地生成詩的每一行。北京郵電大學(xué)的李爭[2]基于遞歸神經(jīng)網(wǎng)絡(luò)的古詩自動生成模型能夠在給

            定關(guān)鍵詞的情況下自動生成與其語義相關(guān)的古詩內(nèi)容。中國科學(xué)技術(shù)大學(xué)的蔣亮[3]設(shè)計了一

            龍源期刊網(wǎng)

            種基于記憶的深度神經(jīng)網(wǎng)絡(luò)模型自動基于圖片生成中國古詩,該模型可以很有效地挖掘圖片中

            的視覺信息及語義信息。清華大學(xué)的Yi Xiaoyuan等[4]將古詩句的生成看作一個序列到序列的

            學(xué)習(xí)問題,基于遞歸神經(jīng)網(wǎng)絡(luò)(Recurrent Neural Network,RNN)的Encoder-Decoder模型,

            構(gòu)建了一個以關(guān)鍵詞為輸入四行詩自動生成系統(tǒng),該系統(tǒng)能學(xué)習(xí)詩中單行的語義、行與行之間

            的語義相關(guān)性及結(jié)構(gòu)、平仄模式的使用。愛丁堡大學(xué)的Zhang Xingxing等[5]提出了一種基于

            遞歸神經(jīng)網(wǎng)絡(luò)(RNN)的詩歌生成模型,該模型非常善于捕捉和學(xué)習(xí)詩歌的內(nèi)容和形式。

            這些研究多數(shù)基于傳統(tǒng)的RNN模型,均可自動生成格式規(guī)范的古詩,但他們都需要研究

            者自己編寫大量代碼來完成系統(tǒng)的開發(fā)。GOOGLE大腦的研究人員[6]于2017年提出了一個摒

            棄了RNN結(jié)構(gòu),完全基于注意力機(jī)制的Transformer模型,隨后他們開源了一個基于

            Tensorflow框架的深度學(xué)習(xí)庫Tensor2Tensor,該庫提供了用于自然語言處理的Transformer模

            型。利用這個深度學(xué)習(xí)庫,基于Transformer模型,僅需編寫少量代碼,即可簡單快捷地訓(xùn)練

            出一個會寫詩的人工智能機(jī)器人。

            2 Transformer模型簡介

            古詩自動生成是一個序列到序列問題,目前處理這類問題較為有效的框架為Encoder-

            Decoder模型,該模型的結(jié)構(gòu)如圖1所示。模型中的Encoder部分采用GRU(Gated Recurrent

            Unit)、LSTM(Long Short-Term Memory)等遞歸神經(jīng)網(wǎng)絡(luò),卷積神經(jīng)網(wǎng)絡(luò)(Convolutional

            Neural Network, CNN),以及RNN或CNN與注意力機(jī)制(Attention)相結(jié)合等機(jī)制學(xué)習(xí)源

            序列,得到一個固定長度的向量表達(dá)式;模型中的Decoder部分以該向量表達(dá)式為輸入,采用

            類似與Encoder的機(jī)制學(xué)習(xí),得到目標(biāo)序列。如圖1中的“羌笛何需怨楊柳”經(jīng)過Encoder后轉(zhuǎn)

            變?yōu)轭愃朴冢?.5,0.2,0.1,-0.6,-0.4,1.0,1.2,0.8)的向量,Decoder以這個向量作為輸

            入,最終可習(xí)得下一句詩“春風(fēng)不渡玉門關(guān)”。

            Transformer是一種處理序列到序列問題的新模型,其仍然沿用了經(jīng)典的Encoder-Decoder

            結(jié)構(gòu),但不再使用RNN或CNN進(jìn)行序列建模,而是完全使用自我注意力(lf-attention)

            制。GOOGLE研究的結(jié)果表明,與RNN或CNN等結(jié)構(gòu)相比,Transformer模型可以在減少計

            算量和提高并行效率的同時獲得更好的學(xué)習(xí)效果,其結(jié)構(gòu)如圖2所示[6]。

            Transformer模型的Encoder部分由Nx個(Nx=6)相同的層堆疊而成,每一層有兩個子

            層,第一個子層是多頭自我注意力層(Multi-head Attention),第二個子層是密集型全連接前

            饋網(wǎng)絡(luò)層(Feed Forward Network),每個子層中均使用一次殘差連接。Decoder部分的結(jié)構(gòu)與

            Encoder相似,也是由6個完全相同的層堆疊組成,每一層除了包括Multi-Head Attention子層

            和Feed Forward Network子層外,還有一個遮擋式多頭自我注意力層(Masked Multi-Head

            Attention),每個子層中也使用一次殘差連接。

            3 利用Transformer模型創(chuàng)建寫詩機(jī)器人

            龍源期刊網(wǎng)

            Tensor2Tensor深度學(xué)習(xí)庫封裝了大量常見數(shù)據(jù)集和一些典型深度學(xué)習(xí)問題,并提供了相

            應(yīng)模型用于解決各類問題,目前可直接解決的問題有:圖像分類,語言模型、情感分析、語音

            識別、文本摘要,機(jī)器翻譯等,利用庫中所提供的模型還可以處理自行創(chuàng)建的各類新問題。寫

            詩機(jī)器人需要用到Tensor2Tensor提供的Transformer模型。

            3.1 數(shù)據(jù)準(zhǔn)備

            七言古詩簡稱七古,是古詩中形式最活潑、體裁最多樣、句法和韻腳處理最自由,抒情敘

            事最富有表現(xiàn)力的一種形式,詩體全篇每句七字或以七字句為主[7]。真正意義的七古成熟于

            唐朝,盛行于唐宋代。為方便訓(xùn)練,訓(xùn)練采用的數(shù)據(jù)集為唐宋兩代的七言絕句。數(shù)據(jù)來源于

            Github上由Werner[8]收集的中國古詩詞數(shù)據(jù)庫,該數(shù)據(jù)庫共收錄了從先秦到現(xiàn)代的共計85萬

            余首古詩詞。利用Python語句從與唐宋詩詞有關(guān)的五個CSV文件中提取出共79292首七言絕

            句作為訓(xùn)練數(shù)據(jù)集。

            3.2 定義問題與數(shù)據(jù)處理

            在Tensor2Tensor中利用Transformer模型處理古詩自動生成問題,需要先編寫一個定義新

            問題的名為chine_的Python文件,代碼如下:

            # coding=utf-8

            from import registry

            from _generators import problem,text_problems

            import re

            @er_problem

            class ChinePoetry(text_2TextProblem):

            @property

            def approx_vocab_size(lf):

            return 2**15

            @property

            def is_generate_per_split(lf):

            return Fal

            龍源期刊網(wǎng)

            @property

            def datat_splits(lf):

            return[{"split": , "shards": 9,},

            {"split": , "shards": 1, }]

            def generate_samples(lf, data_dir, tmp_dir, datat_split):

            with open('./ml/data/') as opf:

            for line in opf:

            line = ('。', ',', line, count=1)

            line = ('?', ',', line, count=1)

            newline = (',')

            for i in range(3):

            prev_line = newline[i]

            curr_line = newline[i+1]

            yield{"inputs": prev_line, "targets": curr_line}

            將chine_保存在chine_poetry目錄下,并在該目錄下再創(chuàng)建一個名為

            __init__.py的Python文件,該文件只包含一句代碼:from . import chine_poetry。

            古詩自動生成問題類似于機(jī)器翻譯,是一個監(jiān)督學(xué)習(xí)問題,計算機(jī)在學(xué)習(xí)大量的詩句對

            后,能夠根據(jù)一句詩自動生成下一句。每首七言絕句可生成三個數(shù)據(jù)樣本:(1)以詩的第一

            行作為輸入序列,第二行作為目標(biāo)序列;(2)以詩的第二行作為輸入序列,第三行作為目標(biāo)

            序列;(3)以詩的第三行作為輸入序列,第四行作為目標(biāo)序列。安裝好Tensor2Tensor深度學(xué)

            習(xí)庫后,利用下列Tensor2Tensor命令根據(jù)原始數(shù)據(jù)(79292首七言絕句)生成237876對

            TFRecord格式的數(shù)據(jù)樣本:

            t2t-datagen --t2t_usr_dir=chine_poetry \

            --problem=chine_poetry \

            龍源期刊網(wǎng)

            --data_dir=chine_poetry/data

            3.3 訓(xùn)練

            訓(xùn)練所使用機(jī)器配置如下:32G內(nèi)存,8G顯存的GTX 1070顯卡。訓(xùn)練所使用的命令如

            下:

            t2t-trainer --t2t_usr_dir=chine_poetry --problem=chine_poetry \

            --data_dir=chine_poetry/data --output_dir=chine_

            poetry/train \

            --model=transformer --hparams_t=transformer_ba_

            single_gpu \

            --schedule=train --train_steps=500000

            上述指令表示訓(xùn)練數(shù)據(jù)所采用的模型為Transformer模型,所采用的超參數(shù)集為

            transformer_ba_single_gpu,訓(xùn)練步數(shù)50萬步。在訓(xùn)練了兩天又七個多小時后,一共訓(xùn)練了

            361800步,結(jié)果已基本收斂,因此停止繼續(xù)訓(xùn)練。

            3.4 測試

            訓(xùn)練好的模型就是一臺寫詩機(jī)器人,只需要給訓(xùn)練好的模型提供一行詩句,模型即可自動

            生成下一句。Tensor2Tensor提供了t2t-decoder這個命令來完成此類動作。完整指令如下:

            t2t-decoder --t2t_usr_dir=chine_poetry --problem=chine_poetry \

            --data_dir=Chine_poetry/data --output_dir=Chin-

            e_poetry/train \

            --model=transformer --hparams_t=transformer_

            ba_single_gpu \

            --decode_hparams="beam_size=4,alpha=0.6" \

            --decode_from_file=Chine_poetry/

            龍源期刊網(wǎng)

            以杜甫《聞官軍收河南河北》(這首詩不在訓(xùn)練集中)這首七律的首句“劍外忽傳收薊北”

            作為詩的第一句,讓訓(xùn)練出來的寫詩機(jī)器人相繼生成后續(xù)詩句,結(jié)果如圖3所示。

            輸入“劍外忽傳收薊北”后,計算機(jī)生成的下一句為“又煩前送相公歸”;輸入變?yōu)椤坝譄┣?/p>

            送相公歸”,計算機(jī)生成“人間父子無窮勝”;以“人間父子無窮勝”為輸入序列,輸出結(jié)果為“筆

            下明明開辟初”。從生成結(jié)果來看,生成的古詩非常規(guī)范,亦頗有意境,描述了一幅戰(zhàn)后親人

            即將團(tuán)聚的景象。

            4 討論與結(jié)語

            通過與訓(xùn)練數(shù)據(jù)對比可以發(fā)現(xiàn),上面生成的最后一行詩“筆下明明開辟初”完完全全來自于

            訓(xùn)練數(shù)據(jù),其原因可能是因?yàn)閿?shù)據(jù)量不夠,訓(xùn)練時出現(xiàn)過擬合現(xiàn)象。為了防止訓(xùn)練數(shù)據(jù)里詩句

            被寫詩機(jī)器人原樣照抄,減少過擬合,除了增大訓(xùn)練數(shù)據(jù)量外,還可調(diào)整模型中的一些正則化

            超參的值,如Dropout值等,后期也應(yīng)該增加一些防剽竊處理措施。此外,此寫詩機(jī)器人僅僅

            依據(jù)詩的上一句來生成下一句,訓(xùn)練后容易導(dǎo)致寫出來的詩主題不明確,內(nèi)容不清晰。因此,

            對于七言絕句而言,可以通過如下兩種方式增加訓(xùn)練樣本:(1)以詩的第一行加第二行作為

            輸入序列,第三行作為目標(biāo)序列;(2)以詩的一二三行作為輸入序列,第四行作為目標(biāo)序

            列。

            在技術(shù)進(jìn)步的引導(dǎo)下,在國內(nèi)外眾多大公司的鼎力支持下,深度學(xué)習(xí)系統(tǒng)的開發(fā)逐漸趨于

            平民化,即不需要具備很強(qiáng)的人工智能專業(yè)背景,也可利用現(xiàn)成的框架開發(fā)出具有實(shí)用價值的

            深度學(xué)習(xí)系統(tǒng),深度學(xué)習(xí)模型的使用門檻越來越低,深度學(xué)習(xí)技術(shù)的使用變得越來越簡單。如

            前所示,寥寥幾十行代碼,即可借助Tensor2Tensor深度學(xué)習(xí)庫開發(fā)出一個人工智能寫詩機(jī)器

            人,但要想獲得比較好的學(xué)習(xí)結(jié)果,讓系統(tǒng)能真正寫出比較完美的古詩,還有大量的工作可

            做。

            【參考文獻(xiàn)】

            [1]黃文明, 衛(wèi)萬成與鄧珍榮, 基于序列到序列神經(jīng)網(wǎng)絡(luò)模型的古詩自動生成方法. 計算

            機(jī)應(yīng)用研究: 第1-7頁.

            [2]李爭, 基于神經(jīng)網(wǎng)絡(luò)的古詩詞自動生成研究, 2018, 北京郵電大學(xué). 第 1-66頁.

            [3]蔣亮, 深度神經(jīng)網(wǎng)絡(luò)在基于圖片生成中國古詩問題中的研究與應(yīng)用, 2018, 中國科學(xué)

            技術(shù)大學(xué). 第1-67頁.

            [4]Yi Xiaoyuan, Li Ruoyu, Sun Maosong. Generating Chine classical poems with RNN

            encoder-decoder. (2016-04-06). https:///abs/1604.01537.

            龍源期刊網(wǎng)

            [5]Zhang Xingxing, Mirella L. Chine poetry generation with recurrent neural networks. Proc

            of Conference on Empirical Methods in Natural Language Processing. October 25-29, 2014,

            Doha, Qatar.

            [6]Ashish Vaswani, Noam Shazeer, Niki Parmar, . Attention Is All You Need. 31st

            Conference on Neural Information Processing Systems (NIPS 2017), Long Beach, CA, USA.

            [7]百度百科. https:///item/七言古詩.

            [8]https:///werner-wiki/Poetry.

            基于Transformer模型的寫詩機(jī)器人

            本文發(fā)布于:2024-03-11 04:13:03,感謝您對本站的認(rèn)可!

            本文鏈接:http://m.newhan.cn/zhishi/a/1710101583156816.html

            版權(quán)聲明:本站內(nèi)容均來自互聯(lián)網(wǎng),僅供演示用,請勿用于商業(yè)和其他非法用途。如果侵犯了您的權(quán)益請與我們聯(lián)系,我們將在24小時內(nèi)刪除。

            本文word下載地址:基于Transformer模型的寫詩機(jī)器人.doc

            本文 PDF 下載地址:基于Transformer模型的寫詩機(jī)器人.pdf

            標(biāo)簽:模型   學(xué)習(xí)   生成   古詩   序列   訓(xùn)練   深度   自動
            留言與評論(共有 0 條評論)
               
            驗(yàn)證碼:
            推薦文章
            排行榜
            Copyright ?2019-2022 Comsenz Inc.Powered by ? 實(shí)用文體寫作網(wǎng)旗下知識大全大全欄目是一個全百科類寶庫! 優(yōu)秀范文|法律文書|專利查詢|
            主站蜘蛛池模板: 狠狠色噜噜狠狠狠狠色综合久| 欧美肥老太交视频免费| 国产二区三区不卡免费| 久久久久久久一线毛片| japanese边做边乳喷| 在线免费观看| 欧美特黄三级在线观看| 国产高清小视频一区二区| 久久久久国产精品熟女影院| 国产一区二区三区怡红院| 日本道之久夂综合久久爱| 国产精品白嫩极品在线看| 亚洲综合成人av在线| 亚洲男人的天堂一区二区| 无码日韩精品91超碰| 亚洲乱码精品中文字幕| 午夜成人无码免费看网站| 国产成人免费无码AV| 国产精品99久久久久久宅男| 久久无码中文字幕免费影院蜜桃| 久久夜色噜噜噜亚洲av| av在线播放观看国产| 强伦姧人妻免费无码电影| 成人国产乱对白在线观看| 中国CHINA体内裑精亚洲日本| www插插插无码视频网站| 成人区人妻精品一区二区不卡视频| 午夜免费啪视频| 中文字幕亚洲精品第一页| 国产成人综合95精品视频| 欧美日产国产精品日产| 久久久久亚洲AV无码尤物| 国产精品无码成人午夜电影| 国产av日韩精品一区二区| 中文字幕永久精品国产| 人妻丝袜中文无码AV影音先锋专区 | 国产AV永久无码青青草原| 亚洲国产成人不卡高清麻豆| 国产精品一区在线蜜臀| 欧美老熟妇乱子伦牲交视频| 丝袜国产一区av在线观看|