-
當前位置:首頁 > 創(chuàng)意學院 > 技術 > 專題列表 > 正文
NLP算法是什么(NLP算法是什么)
大家好!今天讓創(chuàng)意嶺的小編來大家介紹下關于NLP算法是什么的問題,以下是小編對此問題的歸納整理,讓我們一起來看看吧。
開始之前先推薦一個非常厲害的Ai人工智能工具,一鍵生成原創(chuàng)文章、方案、文案、工作計劃、工作報告、論文、代碼、作文、做題和對話答疑等等
只需要輸入關鍵詞,就能返回你想要的內(nèi)容,越精準,寫出的就越詳細,有微信小程序端、在線網(wǎng)頁版、PC客戶端
官網(wǎng):https://ai.de1919.com。
創(chuàng)意嶺作為行業(yè)內(nèi)優(yōu)秀的企業(yè),服務客戶遍布全球各地,如需了解SEO相關業(yè)務請撥打電話175-8598-2043,或添加微信:1454722008
本文目錄:
一、自然語言處理基礎 - NLP
什么是自然語言處理
自然語言處理 (英語:natural language processing,縮寫作 NLP) 是人工智能和語言學領域的分支學科。此領域探討如何處理及運用自然語言;自然語言認知則是指讓電腦“懂”人類的語言。自然語言生成系統(tǒng)把計算機數(shù)據(jù)轉(zhuǎn)化為自然語言。自然語言理解系統(tǒng)把自然語言轉(zhuǎn)化為計算機程序更易于處理的形式。
自然語言處理有四大類常見的任務
什么是命名實體識別
命名實體識別(NER)是信息提?。↖nformation Extraction)的一個子任務,主要涉及如何從文本中提取命名實體并將其分類至事先劃定好的類別,如在招聘信息中提取具體招聘公司、崗位和工作地點的信息,并將其分別歸納至公司、崗位和地點的類別下。命名實體識別往往先將整句拆解為詞語并對每個詞語進行此行標注,根據(jù)習得的規(guī)則對詞語進行判別。這項任務的關鍵在于對未知實體的識別。基于此,命名實體識別的主要思想在于根據(jù)現(xiàn)有實例的特征總結(jié)識別和分類規(guī)則。這些方法可以被分為有監(jiān)督(supervised)、半監(jiān)督(semi-supervised)和無監(jiān)督(unsupervised)三類。有監(jiān)督學習包括隱形馬科夫模型(HMM)、決策樹、最大熵模型(ME)、支持向量機(SVM)和條件隨機場(CRF)。這些方法主要是讀取注釋語料庫,記憶實例并進行學習,根據(jù)這些例子的特征生成針對某一種實例的識別規(guī)則。
什么是詞性標注
詞性標注 (pos tagging) 是指為分詞結(jié)果中的每個單詞標注一個正確的詞性的程序,也即確定每個詞是名詞、動詞、形容詞或其他詞性的過程。
什么是文本分類
該技術可被用于理解、組織和分類結(jié)構化或非結(jié)構化文本文檔。文本挖掘所使用的模型有詞袋(BOW)模型、語言模型(ngram)和主題模型。隱馬爾可夫模型通常用于詞性標注(POS)。其涵蓋的主要任務有句法分析、情緒分析和垃圾信息檢測。
GLUE benchmark
General Language Understanding Evaluation benchmark,通用語言理解評估基準,用于測試模型在廣泛自然語言理解任務中的魯棒性。
LM:Language Model
語言模型,一串詞序列的概率分布,通過概率模型來表示文本語義。
語言模型有什么作用?通過語言模型,可以量化地衡量一段文本存在的可能性。對于一段長度為n的文本,文本里每個單詞都有上文預測該單詞的過程,所有單詞的概率乘積便可以用來評估文本。在實踐中,如果文本很長,P(wi|context(wi))的估算會很困難,因此有了簡化版:N元模型。在N元模型中,通過對當前詞的前N個詞進行計算來估算該詞的條件概率。
重要文獻與資料
https://segmentfault.com/a/1190000015460828
https://segmentfault.com/a/1190000015284996
https://segmentfault.com/a/1190000015285996
我們介紹詞的向量表征,也稱為 word embedding 。詞向量是自然語言處理中常見的一個操作,是搜索引擎、廣告系統(tǒng)、推薦系統(tǒng)等互聯(lián)網(wǎng)服務背后常見的基礎技術。
在這些互聯(lián)網(wǎng)服務里,我們經(jīng)常要比較兩個詞或者兩段文本之間的相關性。為了做這樣的比較,我們往往先要把詞表示成計算機適合處理的方式。最自然的方式恐怕莫過于向量空間模型(vector space model)。 在這種方式里,每個詞被表示成一個實數(shù)向量(one-hot vector),其長度為字典大小,每個維度對應一個字典里的每個詞,除了這個詞對應維度上的值是1,其他元素都是0。
One-hot vector雖然自然,但是用處有限。比如,在互聯(lián)網(wǎng)廣告系統(tǒng)里,如果用戶輸入的query是“母親節(jié)”,而有一個廣告的關鍵詞是“康乃馨”。雖然按照常理,我們知道這兩個詞之間是有聯(lián)系的——母親節(jié)通常應該送給母親一束康乃馨;但是這兩個詞對應的one-hot vectors之間的距離度量,無論是歐氏距離還是余弦相似度(cosine similarity),由于其向量正交,都認為這兩個詞毫無相關性。 得出這種與我們相悖的結(jié)論的根本原因是:每個詞本身的信息量都太小。所以,僅僅給定兩個詞,不足以讓我們準確判別它們是否相關。要想精確計算相關性,我們還需要更多的信息——從大量數(shù)據(jù)里通過機器學習方法歸納出來的知識。
在機器學習領域里,各種“知識”被各種模型表示,詞向量模型(word embedding model)就是其中的一類。通過詞向量模型可將一個 one-hot vector映射到一個維度更低的實數(shù)向量(embedding vector),如embedding(母親節(jié))=[0.3,4.2,−1.5,...],embedding(康乃馨)=[0.2,5.6,−2.3,...]。在這個映射到的實數(shù)向量表示中,希望兩個語義(或用法)上相似的詞對應的詞向量“更像”,這樣如“母親節(jié)”和“康乃馨”的對應詞向量的余弦相似度就不再為零了。
詞向量模型可以是概率模型、共生矩陣(co-occurrence matrix)模型或神經(jīng)元網(wǎng)絡模型。在用神經(jīng)網(wǎng)絡求詞向量之前,傳統(tǒng)做法是統(tǒng)計一個詞語的共生矩陣X。
X是一個|V|×|V| 大小的矩陣,Xij表示在所有語料中,詞匯表V(vocabulary)中第i個詞和第j個詞同時出現(xiàn)的詞數(shù),|V|為詞匯表的大小。對X做矩陣分解(如奇異值分解),得到的U即視為所有詞的詞向量:
但這樣的傳統(tǒng)做法有很多問題:
基于神經(jīng)網(wǎng)絡的模型不需要計算和存儲一個在全語料上統(tǒng)計產(chǎn)生的大表,而是通過學習語義信息得到詞向量,因此能很好地解決以上問題。
神經(jīng)網(wǎng)絡
當詞向量訓練好后,我們可以用數(shù)據(jù)可視化算法t-SNE[ 4 ]畫出詞語特征在二維上的投影(如下圖所示)。從圖中可以看出,語義相關的詞語(如a, the, these; big, huge)在投影上距離很近,語意無關的詞(如say, business; decision, japan)在投影上的距離很遠。
另一方面,我們知道兩個向量的余弦值在[−1,1]的區(qū)間內(nèi):兩個完全相同的向量余弦值為1, 兩個相互垂直的向量之間余弦值為0,兩個方向完全相反的向量余弦值為-1,即相關性和余弦值大小成正比。因此我們還可以計算兩個詞向量的余弦相似度。
模型概覽
語言模型
在介紹詞向量模型之前,我們先來引入一個概念:語言模型。 語言模型旨在為語句的聯(lián)合概率函數(shù)P(w1,...,wT)建模, 其中wi表示句子中的第i個詞。語言模型的目標是,希望模型對有意義的句子賦予大概率,對沒意義的句子賦予小概率。 這樣的模型可以應用于很多領域,如機器翻譯、語音識別、信息檢索、詞性標注、手寫識別等,它們都希望能得到一個連續(xù)序列的概率。 以信息檢索為例,當你在搜索“how long is a football bame”時(bame是一個醫(yī)學名詞),搜索引擎會提示你是否希望搜索"how long is a football game", 這是因為根據(jù)語言模型計算出“how long is a football bame”的概率很低,而與bame近似的,可能引起錯誤的詞中,game會使該句生成的概率最大。
對語言模型的目標概率P(w1,...,wT),如果假設文本中每個詞都是相互獨立的,則整句話的聯(lián)合概率可以表示為其中所有詞語條件概率的乘積,即:
然而我們知道語句中的每個詞出現(xiàn)的概率都與其前面的詞緊密相關, 所以實際上通常用條件概率表示語言模型:
N-gram neural model
在計算語言學中,n-gram是一種重要的文本表示方法,表示一個文本中連續(xù)的n個項?;诰唧w的應用場景,每一項可以是一個字母、單詞或者音節(jié)。 n-gram模型也是統(tǒng)計語言模型中的一種重要方法,用n-gram訓練語言模型時,一般用每個n-gram的歷史n-1個詞語組成的內(nèi)容來預測第n個詞。
Yoshua Bengio等科學家就于2003年在著名論文 Neural Probabilistic Language Models [ 1 ] 中介紹如何學習一個神經(jīng)元網(wǎng)絡表示的詞向量模型。文中的神經(jīng)概率語言模型(Neural Network Language Model,NNLM)通過一個線性映射和一個非線性隱層連接,同時學習了語言模型和詞向量,即通過學習大量語料得到詞語的向量表達,通過這些向量得到整個句子的概率。因所有的詞語都用一個低維向量來表示,用這種方法學習語言模型可以克服維度災難(curse of dimensionality)。注意:由于“神經(jīng)概率語言模型”說法較為泛泛,我們在這里不用其NNLM的本名,考慮到其具體做法,本文中稱該模型為N-gram neural model。
在上文中已經(jīng)講到用條件概率建模語言模型,即一句話中第t個詞的概率和該句話的前t−1個詞相關??蓪嶋H上越遠的詞語其實對該詞的影響越小,那么如果考慮一個n-gram, 每個詞都只受其前面n-1個詞的影響,則有:
給定一些真實語料,這些語料中都是有意義的句子,N-gram模型的優(yōu)化目標則是最大化目標函數(shù):
其中f(wt,wt−1,...,wt−n+1)表示根據(jù)歷史n-1個詞得到當前詞wt的條件概率,R(θ)表示參數(shù)正則項。
Continuous Bag-of-Words model(CBOW)
CBOW模型通過一個詞的上下文(各N個詞)預測當前詞。當N=2時,模型如下圖所示:
具體來說,不考慮上下文的詞語輸入順序,CBOW是用上下文詞語的詞向量的均值來預測當前詞。
其中xt為第t個詞的詞向量,分類分數(shù)(score)向量 z=U∗context,最終的分類y采用softmax,損失函數(shù)采用多類分類交叉熵。
Skip-gram model
CBOW的好處是對上下文詞語的分布在詞向量上進行了平滑,去掉了噪聲,因此在小數(shù)據(jù)集上很有效。而Skip-gram的方法中,用一個詞預測其上下文,得到了當前詞上下文的很多樣本,因此可用于更大的數(shù)據(jù)集。
如上圖所示,Skip-gram模型的具體做法是,將一個詞的詞向量映射到2n個詞的詞向量(2n表示當前輸入詞的前后各n個詞),然后分別通過softmax得到這2n個詞的分類損失值之和。
我們介紹了詞向量、語言模型和詞向量的關系、以及如何通過訓練神經(jīng)網(wǎng)絡模型獲得詞向量。在信息檢索中,我們可以根據(jù)向量間的余弦夾角,來判斷query和文檔關鍵詞這二者間的相關性。在句法分析和語義分析中,訓練好的詞向量可以用來初始化模型,以得到更好的效果。在文檔分類中,有了詞向量之后,可以用聚類的方法將文檔中同義詞進行分組,也可以用 N-gram 來預測下一個詞。希望大家在本章后能夠自行運用詞向量進行相關領域的研究。
參考: https://www.paddlepaddle.org.cn/documentation/docs/zh/user_guides/simple_case/word2vec/README.cn.html
二、現(xiàn)在很多做AI語音的廠商都在說NLP,NLP和傳統(tǒng)關鍵詞的區(qū)別究竟是什么?
從外呼系統(tǒng)誕生的那一刻起,基于人工規(guī)則關鍵詞匹配的語義理解方法,和以NLP算法驅(qū)動的語義理解方法,一直是對話系統(tǒng)工業(yè)界領域的爭論焦點。基于關鍵詞匹配的語義理解方法,對于快速搭建新對話場景有著其獨特優(yōu)勢。在AI訓練師的指導下,機器人通過已配置好的關鍵詞進行匹配,能很快根據(jù)用戶的表達做出機械的理解反應,所設置的關鍵詞模板越復雜,機器人能應對的對話內(nèi)容也越豐富。然而,簡單粗暴的配置方式相應地也帶來了一定的負面作用。隨著對話內(nèi)容的增多,關鍵詞窮舉所帶來的難度呈指數(shù)級上升,形成的語義沖突更是不可忽視的難題。而以NLP算法驅(qū)動的語義理解方法則恰恰相反,算法的有效工作,往往是“嬌生慣養(yǎng)”型的,需要前沿的算法和大量的垂直數(shù)據(jù)作為基礎支持。然而,一旦滿足前沿算法+大數(shù)據(jù)兩大條件,以NLP驅(qū)動的方法在復雜對話場景的語義泛化性和精準識別上就能夠大顯神威。
只有當行業(yè)區(qū)分后,垂直行業(yè)下的語料積累和NLP算法模型準確度才有提升的可能。我們曾在已有的1.0NLP系統(tǒng)中做過測試,分場景的意圖判斷準確度相比泛行業(yè)可以提升5%-7%。利用算法能力進行最終意向輸出,替代過往的規(guī)則匹配,可以讓意向判斷更貼近真實的轉(zhuǎn)化效果。與此同時,通過垂直領域下語料庫、意圖庫的積累和調(diào)用,以及話術智能推薦,可以大大提升AIT話術交付的響應速度,更好應對618、雙十一等大促節(jié)點下的客戶爆發(fā)性需求。
有了NLP2.0系統(tǒng)的加持,原先一些高難度的對話場景有了實現(xiàn)的可能。曾經(jīng),對于調(diào)查問卷、用戶滿意度調(diào)研之類的外呼需求,在關鍵信息提取、時間地址組織名等實體信息抽取上的要求非常高,靠簡單關鍵詞窮舉是根本無法滿足要求的。而有了NLP的實體識別功能和關鍵信息提取功能,復雜對話場景的數(shù)據(jù)分析變得可行;有了情緒識別和情景感知功能的加成,同樣的用戶回復⌄,機器人有了更多的語言表達選擇,真正做到了千人千面;而有了知識圖譜算法的支持,極大地減少了復雜重復問題的實施投入,也讓機器人在客戶各式各樣問題面前變得更加從容。
此次發(fā)布的NLP2.0系統(tǒng),最核心的亮點,一知智能在杭州人工智能計算中心與升騰生態(tài)軟硬件進行調(diào)優(yōu),結(jié)合浙大·一知人工智能聯(lián)合研究中心,共同提出了在泛消費領域的專用大規(guī)模預訓練語言模型“EAZI”。在基于數(shù)百G級別涵蓋消費領域信息的互聯(lián)網(wǎng)網(wǎng)頁、論壇、微博、新聞等形式的高質(zhì)量語料訓練,結(jié)合數(shù)億條一知智能自身積累的消費場景對話數(shù)據(jù)進行專項任務訓練,可以同時支持多種語義理解算法,包含意圖識別、問答識別、實體識別、情感識別、知識圖譜以及對話內(nèi)容生成等多項NLP常見任務?!癊AZI”模型在Transformer架構基礎上,自研基于語言學知識、領域數(shù)據(jù)增強技術,從模型架構表征層和交互層,再到預訓練策略進行了全方位改進。具體而言:
1、細粒度詞法表征,并基于詞義信息引入注意力機制,對句法進行約束,提升模型對于語言學知識的建模能力。
2、結(jié)合消費場景積累的大量實體信息和引入Discourse的Mask機制,強化模型對場景專項識別的表征能力。有了垂直領域數(shù)據(jù)的增強,識別算法對于領域內(nèi)常見的表達方式語言成分和語篇關系表征更為敏感。
3、為滿足工業(yè)界高并發(fā)、低時延、低資源消耗需求,EAZI使用了大模型蒸餾和初始化小模型策略,最終實現(xiàn)參數(shù)僅為十億級別的輕量化預訓練模型。相比于動輒千億參數(shù)的大模型而言,在消費領域?qū)S械淖R別場景中,實現(xiàn)效果與識別速度的雙向提升,突破傳統(tǒng)“巨無霸”大模型的效率限制。
4、在實際訓練過程中,一知智能與華為杭州計算中心共同協(xié)作,在升騰生態(tài)下,算力達到40 PFLOPS FP16,相當于2萬臺高性能PC的計算能力,顯著提升算力的快速響應。
三、產(chǎn)品經(jīng)理如何入門自然語言處理(NLP)?
自然語言處理,顧名思義即自然語言處理的技術,通常用縮寫NLP指代。各類產(chǎn)品經(jīng)理日常的工作中,會遇到大量自然語言處理的應用場景。以智能推薦為例,在待推薦物文本分類、主題分類等場景中都會用到。本篇以產(chǎn)品經(jīng)理的視角,談談如何入門自然語言處理。
統(tǒng)計模型
很多大牛對人工智能的抨擊在于,認為人工智能只是統(tǒng)計學,并不是真正的具有「智能」。在當前「弱人工智能」的時代背景下,學習統(tǒng)計模型仍然有非常重要的價值。
拿經(jīng)常用于分類場景的貝葉斯模型為例,在已經(jīng)拿到用于訓練集的語料中,可以通過統(tǒng)計得出A出現(xiàn)的概率、B出現(xiàn)的概率、在A出現(xiàn)的前提下B出現(xiàn)的概率,計算如果B出現(xiàn)同時A出現(xiàn)的概率(即給定B樣本計算出現(xiàn)A的概率),就可以直接從前面三個統(tǒng)計概率計算得出。
當然以上貝葉斯模型成立并且表現(xiàn)良好的前提是 數(shù)據(jù)量足夠大,滿足大數(shù)定律 。不難發(fā)現(xiàn)統(tǒng)計模型的精髓在于,假設數(shù)據(jù)量足夠大后,可以用已有樣本的統(tǒng)計情況,來做判別或預測。
閉環(huán)流程
NLP技術應用場景廣泛且松散,且在很多情況下,作為中間處理技術流程,不被最終用戶所感知。再加上近些年新的自然語言處理技術不斷出現(xiàn),給想入門自然語言處理的產(chǎn)品經(jīng)理眼花繚亂,不知如何入手的困惑。
入門自然語言處理也需要講究MVP,以最小可行性的閉環(huán),建立起初步認知,再不斷擴展和豐富NLP的知識體系,逐步建立大的框架和認知。
通常的自然語言處理任務可從「分詞」—>「構建特征」—>「訓練模型」—>「分類或預測應用」。
以上流程中,除了分詞外,與機器學習通常流程一樣。英文一個個單詞本身就是分開的,是不需要分詞的。但對于中文來講,詞與詞之間是連接在一起的,需要將文本內(nèi)容,切分成一個個詞再處理。
完成分詞后,計算機無法直接理解漢字,需要通過將一個個詞,編碼成計算機可以理解的數(shù)字再做處理,這個階段即構建特征階段。
特征完成后,再根據(jù)自然語言處理任務類型,決定采用哪種算法訓練模型,最后將訓練好的模型應用于特定的分類或預測任務上。一個自然語言處理任務就完成了。
標注與預處理
前幾年從事的智能推薦產(chǎn)品中,推薦系統(tǒng)本身以CTR作為優(yōu)化目標,實際是將點擊與否作為label,相當于用戶幫著做了分布式的標注工作。
傳統(tǒng)基于統(tǒng)計的自然語言處理任務中,大部分任務類型是有監(jiān)督學習,需要人在已有語料上做大量的標注工作,才能保證任務的正常進行。
例如情感識別是否為正向情感,就需要人在語料上,將一條條信息標出是否為正向情感。再將此語料作為訓練集訓練模型,生成情感識別的分類模型用于情感識別。
文檔的預處理通常是將拿到的語料做去除標點符號、停用詞、數(shù)字等處理,去除自然語言無關內(nèi)容,加快計算機計算和模型生成速度。
在完成以上處理后,可將文檔做分詞處理,再將詞作編碼處理即可。
常見任務及算法原理
自然語言處理通常有以下應用場景:分詞、詞性標注、主題識別、情感識別、文本分類、機器翻譯等。下面將主要應用及背后算法原理作簡要介紹。
有監(jiān)督的分類問題。 無論情感識別還是垃圾郵件分類,本質(zhì)上都可以轉(zhuǎn)化為幾個目標類型的分類問題。按照貝葉斯公式的邏輯,將已有語料數(shù)據(jù)進行類型標注,基于統(tǒng)計模型的邏輯,訓練得到分類模型,將待識別內(nèi)容通過模型計算打分,根據(jù)閾值即可完成識別。例如二分類的情感識別,可以將0-0.5區(qū)間歸為消極情感,0.5-1區(qū)間歸為積極情感。多分類則是計算待分類樣本離哪個區(qū)間更近,即識別為哪種類型。
無監(jiān)督的分類問題 。自然語言處理中,經(jīng)常會有主題識別任務,這類任務通常是采用LDA主題模型,核心邏輯是將文章劃分為「文檔」—「主題」—「詞」的三層邏輯,以無監(jiān)督學習自動完成按照主題的詞聚類。由于是無監(jiān)督學習,需要根據(jù)實際情況指定學習出的主題個數(shù),最終選擇主題個數(shù)最合理的結(jié)果。依賴人的主觀判斷和理解一系列詞背后組成的主題。
生成問題 。生成問題常見的有文本糾錯、詞生成、句子生成、機器翻譯等。生成問題從統(tǒng)計學邏輯上講,是基于已有語料的統(tǒng)計,計算出接下來要生成內(nèi)容的概率。拿機器翻譯舉例,需要事先準備好中英文對照的大量語料,基于語料,機器學習到中英文詞對照、短語對照的知識,最終在翻譯場景下,輸出中文或英文相應的翻譯內(nèi)容。
再拿隱馬爾可夫模型做詞性標注舉例,基于已經(jīng)標注的語料,隱馬爾可夫模型可以學習到詞與詞之間詞性的狀態(tài)轉(zhuǎn)移概率,基于這個概率可以計算出一個詞屬于哪種詞性。
深度學習的應用。 CNN構建的神經(jīng)網(wǎng)絡,比較適合解決NLP分類問題,但由于沒有記憶,無法解決生成問題。RNN相較于CNN可以解決一定長度記憶問題,適合解決NLP領域一定長度的生成問題,例如詞生成,但無法保留長期記憶。LSTM具有長期記憶的手段,可以做生成句子的任務。
NLP 應用價值
文本是最常見的生產(chǎn)資料,產(chǎn)品經(jīng)理學習NLP的原理及應用,可以開闊解決問題的視野。
拿在線教育行業(yè)舉例,利用自然語言處理能力,可以自動識別出學生評論的情感傾向,可以輔助老師進行作文批改、自動出題、自動解題。
不難看出,自然語言處理的應用場景,并非人做不了,而是可以替代人類的手工勞動,大大提升任務的效率,將人解放出來,做更有價值的工作。
小樂帝,一線AI產(chǎn)品經(jīng)理、科技優(yōu)秀作者、產(chǎn)品經(jīng)理讀書會創(chuàng)始人。
「產(chǎn)品經(jīng)理讀書會」
專注于愛讀書愛思考的產(chǎn)品人提供讀書推薦、產(chǎn)品思考、以書會友的環(huán)境
四、nlp cv ml dm都是什么
分別是圖像和文本兩條支線的技術棧。最大的區(qū)別還是你需要面對的數(shù)據(jù)形式不同。數(shù)字圖像的話通常你要處理矩陣(matrix)和頻率等數(shù)據(jù)。文本上你要面對序列(time-based)和語義等形式的數(shù)據(jù)。雖然算法和路徑,還有優(yōu)化方法會有很多共通之處,但是因為訓練數(shù)據(jù)和建?;诘臄?shù)據(jù)的形式不同,cv和nlp還是有很多壁壘和代溝。然后換一個角度來說,應用場景還有職業(yè)發(fā)展路線,和所銜接的行業(yè),也會很不同。
以上就是關于NLP算法是什么相關問題的回答。希望能幫到你,如有更多相關問題,您也可以聯(lián)系我們的客服進行咨詢,客服也會為您講解更多精彩的知識和內(nèi)容。
推薦閱讀:
onlinegame網(wǎng)站(online gamea)
杭州中國動漫博物館4樓開放時間(杭州中國動漫博物館4樓開放時間是幾點)