-
當(dāng)前位置:首頁(yè) > 創(chuàng)意學(xué)院 > 技術(shù) > 專(zhuān)題列表 > 正文
instructGPT原理(gst pulldown原理)
大家好!今天讓創(chuàng)意嶺的小編來(lái)大家介紹下關(guān)于instructGPT原理的問(wèn)題,以下是小編對(duì)此問(wèn)題的歸納整理,讓我們一起來(lái)看看吧。
ChatGPT國(guó)內(nèi)免費(fèi)在線使用,能給你生成想要的原創(chuàng)文章、方案、文案、工作計(jì)劃、工作報(bào)告、論文、代碼、作文、做題和對(duì)話答疑等等
你只需要給出你的關(guān)鍵詞,它就能返回你想要的內(nèi)容,越精準(zhǔn),寫(xiě)出的就越詳細(xì),有微信小程序端、在線網(wǎng)頁(yè)版、PC客戶端,官網(wǎng):https://ai.de1919.com
本文目錄:
一、05-ELMo/BERT/GPT-NLP預(yù)訓(xùn)練模型
這里可以參考CSDN上的文章-BERT原理和實(shí)踐: https://blog.csdn.net/jiaowoshouzi/article/category/9060488
在解釋BERT,ELMO這些預(yù)訓(xùn)練模型之前,我們先看一下很久之前的計(jì)算機(jī)是如何讀懂文字的?
每個(gè)字都有自己的獨(dú)特的編碼。但是這樣是有弊端的,字和字之間的關(guān)聯(lián)關(guān)系是無(wú)法得知的,比如計(jì)算機(jī)無(wú)法知道dog和cat都是動(dòng)物,它反而會(huì)覺(jué)得bag和dog是比較相近的。
所以后來(lái)就有了Word Class,將一系列的詞進(jìn)行分類(lèi)然后讓一類(lèi)詞語(yǔ)和一類(lèi)詞語(yǔ)之間更有關(guān)聯(lián),但是這樣的方法太過(guò)于粗糙,比如dog,cat,bird是一類(lèi),看不出哺乳動(dòng)物鳥(niǎo)類(lèi)的區(qū)別。
在這個(gè)基礎(chǔ)之上,我們有了Word Embedding,Word Embedding我們可以想象成是一種soft的word class,每個(gè)詞都用向量來(lái)表示,它的向量維度可能表示這個(gè)詞匯的某種意思,如圖中dog,cat,rabbit的距離相比其他更近。那么word embendding是如何訓(xùn)練出來(lái)的,是根據(jù)每個(gè)詞匯的上下文所訓(xùn)練的。
每個(gè)句子都有bank的詞匯,四個(gè)bank是不同的token,但是同樣的type。(注:token-詞例, type-詞型, class-詞類(lèi) or token是出現(xiàn)的總次數(shù)(還有種理解是token是具有一定的句法語(yǔ)義且獨(dú)立的最小文本成分。 ),type是出現(xiàn)的不同事物的個(gè)數(shù)。)
對(duì)于典型的Word Embedding認(rèn)為,每個(gè)詞type有一個(gè)embedding,所以就算是不同的token只要是一樣的type那么word embedding就是一樣的,語(yǔ)義也就是一樣的。
而事實(shí)上并非如此,1,2句bank指的是銀行,3,4為水庫(kù)。所以我們希望讓機(jī)器給不同意思的token而且type還一致,給予不同的embedding。在這個(gè)問(wèn)題上,之前的做法是從字典中去查找這個(gè)詞包含幾種意思,但是這樣的做法顯然跟不上現(xiàn)實(shí)中詞語(yǔ)的一些隱含的含義。比如bank有銀行的意思,與money一起是銀行的意思,而與blood一起卻是血庫(kù)的意思。
所以我們想讓機(jī)器今天進(jìn)一步做到每一個(gè)word token都可以有自己的embedding(之前是每個(gè)type有一個(gè)embedding或者有固定的一個(gè)或多個(gè)embedding),那么怎么知道一個(gè)word應(yīng)該有怎樣的embedding呢?我們可以取決于該詞的上下文,上下文越相近的token它們就會(huì)越相近的embedding。比如之前提到的bank,下面兩個(gè)句子它們的word token的embedding可能是相近的,而和上面的word token的embedding是相遠(yuǎn)的。
所以我們想使用一種能夠基于上下文的Contextual word Embedding來(lái)解決一詞多義的問(wèn)題。
這里使用ELMO可以做到這件事情,即每個(gè)word token擁有不同的word embedding。(右上角動(dòng)物是芝麻街(美國(guó)公共廣播協(xié)會(huì)(PBS)制作播出的兒童教育電視節(jié)目)里的角色)。
它是基于RNN的預(yù)訓(xùn)練模型,它只需要搜集大量語(yǔ)料(句子)且不需要做任何標(biāo)注,就可以訓(xùn)練這個(gè)基于RNN的語(yǔ)言模型,預(yù)測(cè)下一個(gè)token是什么,學(xué)習(xí)完了之后就得到了上下文的embedding。因?yàn)槲覀兛梢詫NN的隱藏層中的某一節(jié)點(diǎn)拿出來(lái)(圖中橙藍(lán)色節(jié)點(diǎn)),它就是輸入當(dāng)前結(jié)點(diǎn)的詞匯的word embedding。
從當(dāng)計(jì)算識(shí)別到<BOS>,模型訓(xùn)練開(kāi)始。首先輸入"潮水",然后當(dāng)作輸入輸出"退了",退了當(dāng)做輸入輸出"就"。
假設(shè)當(dāng)前要得到”退了”這個(gè)詞的上下文embedding,首先,因?yàn)榍斑叺腞NN只考慮到了前文而沒(méi)有考慮到后文,所以這里就使用了同前文一樣的反向的RNN。然后,它從句尾開(kāi)始進(jìn)行,比如給它喂”知道”,它就要預(yù)測(cè)”就”,給它喂”就”,它就要預(yù)測(cè)”退了”。這時(shí)候就不僅考慮每個(gè)詞匯的前文,還會(huì)考慮每個(gè)詞的后文。最后將正向和逆向得到的兩個(gè)不同的上下文embedding(因?yàn)榉较虿煌?xùn)練結(jié)果也不一樣)拼接起來(lái)。
現(xiàn)在我們訓(xùn)練的程度都會(huì)越來(lái)越深度,當(dāng)層數(shù)增加,這樣就會(huì)產(chǎn)生Deep的RNN,因?yàn)楹芏鄬?,而且每一層都?huì)產(chǎn)生上下文Embedding,那么我們到底應(yīng)該使用哪一層?每一層這種深度LSTM中的每個(gè)層都可以生成潛在表示(方框處)。同一個(gè)詞在不同的層上會(huì)產(chǎn)生不同的Embedding,那么我們應(yīng)該使用哪一層呢?ELMo的策略是每一層得到的上下文embedding都要。
在上下文embedding的訓(xùn)練模型中,每個(gè)詞輸入進(jìn)去都會(huì)有一個(gè)embedding輸出來(lái)。但是在ELMo中,每個(gè)詞匯輸入進(jìn)去,都會(huì)得到不止一個(gè)embedding,因?yàn)槊繉拥腞NN都會(huì)給到一個(gè)embedding,ELMo將它們統(tǒng)統(tǒng)加起來(lái)一起使用。
以圖中為例,這里假設(shè)ELMo有兩層RNN,這里是將α1(黃色,第一層得到的embedding)和α2(綠色,第二層得到embedding)加起來(lái)得到藍(lán)色的embedding,并做為接下來(lái)要進(jìn)行不同任務(wù)的輸入。
但是這里存在一些問(wèn)題,α1和α2是學(xué)習(xí)得到的,而且它是根據(jù)當(dāng)前要進(jìn)行的任務(wù)(如QA,POS of tagging ),然后根據(jù)接下來(lái)要進(jìn)行的這些任務(wù)一起被學(xué)習(xí)出來(lái)。所以就導(dǎo)致不同任務(wù)導(dǎo)向下的α1和α2也不一樣。
ELMo的論文中提到,在不同任務(wù)下(SRL,Coref,SNLI,SQuAD,SST-5)。藍(lán)色的上下文embedding在經(jīng)過(guò)token(這里為沒(méi)有經(jīng)過(guò)上下文的embedding),LSTM1,LSTM2后,它在不同階段需要的weight也不一樣。
BERT相當(dāng)于是Transformer的Encoder部分,它只需要搜集大量的語(yǔ)料去從中學(xué)習(xí)而不經(jīng)過(guò)標(biāo)注(不需要label),就可以將Encoder訓(xùn)練完成。如果之前要訓(xùn)練Encoder,我們需要通過(guò)一些任務(wù)來(lái)驅(qū)動(dòng)學(xué)習(xí)(如機(jī)器翻譯)。
BERT就是句子給進(jìn)去,每個(gè)句子給一個(gè)embedding。
這里可以回憶下,Transformer的Enoder中有self-attention layer,就是給進(jìn)去一個(gè)sequence,輸出也得到一個(gè)sequence。
雖然圖中使用是用詞作為單元進(jìn)行輸入,但是在使用BERT進(jìn)行中文的訓(xùn)練時(shí),字會(huì)是一個(gè)更好的選擇。比如,我們?cè)诮oBERT進(jìn)行輸入時(shí),用one-hot給詞進(jìn)行編碼,但是詞在中文中數(shù)量龐大,會(huì)導(dǎo)致維度過(guò)高。但是,字的話相對(duì)會(huì)少很多,特別是中文(大約幾千個(gè),可以窮舉)。這樣以字為單位進(jìn)行輸入會(huì)占很大優(yōu)勢(shì)。
共有兩種方法,一種是Mask LM遮蓋語(yǔ)言模型,另一種是Next Sentence Prediction下一句預(yù)測(cè)。
下面用上圖的例子來(lái)理解BERT是怎么樣來(lái)進(jìn)行填空的:
1)這里假設(shè)在所有句子中的詞匯的第2個(gè)位置上設(shè)置一個(gè)<MASK>;
2)接下來(lái)把所有的詞匯輸入BERT,然后每個(gè)輸入的token都會(huì)得到一個(gè)embedding;
3)接下來(lái)將設(shè)置為<MASK>的embedding輸入到Linear Multi-class Classifier中中,要求它預(yù)測(cè)被<MASK>的詞匯是哪個(gè)詞匯?
但是這個(gè)Linear Multi-class Classifier它僅僅是一個(gè)線性分類(lèi)器,所以它的能力十分弱,這也就需要在之前的BERT模型中需要將它的層數(shù)等參數(shù)設(shè)計(jì)的相當(dāng)好,然后得到非常出色的representation,便于線性分類(lèi)器去訓(xùn)練。
那么我們?cè)趺粗雷詈蟮玫降膃mbedding是什么樣的呢?如果兩個(gè)<MASK>下的詞匯(輸入時(shí)設(shè)置的<MASK>和最后預(yù)測(cè)的<MASK>)都放回原來(lái)的位置而且沒(méi)有違和感(就是語(yǔ)句還算通順),那它們就有類(lèi)似的embedding(比如退下和落下)。
如圖中,給定兩個(gè)句子1)醒醒吧 和 2)你沒(méi)有妹妹。其中特殊符號(hào)[SEP]是告訴BERT兩個(gè)句子的分隔點(diǎn)在哪里。
特殊符號(hào)[CLS]一般放在句子的開(kāi)頭,它用來(lái)告訴BERT從這開(kāi)始分類(lèi)任務(wù),[CLS]輸入BERT后得到embedding然后通過(guò)Linear Binary Classifier得出結(jié)果說(shuō)明:經(jīng)過(guò)BERT預(yù)測(cè)后現(xiàn)在我們要預(yù)測(cè)的兩個(gè)句子是接在一起 or 不應(yīng)該被接在一起。
這里可能會(huì)有疑問(wèn),為什么不將[CLS]放在句尾,等BERT訓(xùn)練完兩個(gè)句子再輸出結(jié)果?
對(duì)于上圖中的任務(wù),BERT現(xiàn)在要做的事情就是給定兩個(gè)句子,讓BERT輸出結(jié)果這兩個(gè)句子是不是應(yīng)該接在一起?
所以在語(yǔ)料庫(kù)的大量句子中,我們是知道哪些句子是可以接在一起的,所以也需要我們告訴BERT哪些句子是接在一起的。
Linear Binary Classifier和BERT是一起被訓(xùn)練的,通過(guò)預(yù)測(cè)下一句這個(gè)任務(wù),我們就可以把將BERT部分的最優(yōu)參數(shù)訓(xùn)練出來(lái)。
現(xiàn)在我們知道了任務(wù)一和任務(wù)二,在原論文中兩種任務(wù)是要同時(shí)進(jìn)行的,這樣才能將BERT的性能發(fā)揮到最佳。
現(xiàn)在我們知道了BERT要做什么事情,那么我們要如何去使用它?共有四種方法。論文中是將【BERT模型和接下來(lái)你要進(jìn)行的任務(wù)】結(jié)合在一起做訓(xùn)練。
第一種,假設(shè)當(dāng)前任務(wù)是Input一個(gè)sentence,out一個(gè)class,舉例來(lái)說(shuō)輸入一句話來(lái)判斷分類(lèi)。
訓(xùn)練流程:1)將做要分類(lèi)的句子丟給BERT;
2)需要在句子開(kāi)始加上分類(lèi)的特殊符號(hào),這個(gè)特殊符號(hào)經(jīng)過(guò)BERT輸出的embedding經(jīng)過(guò)線性分類(lèi)器,輸出結(jié)果為當(dāng)前的句子屬于的類(lèi)別是真還是假。BERT和Linear Classifier的參數(shù)一起進(jìn)行學(xué)習(xí);
3)這里的Linear Classifier是Trained from Scratch是白手起家從頭開(kāi)始,即它的參數(shù)隨機(jī)初始化設(shè)置,然后開(kāi)始訓(xùn)練;
4)而B(niǎo)ERT則是加上Fine-tune微調(diào)策略(一種遷移學(xué)習(xí)方式*),例如Generative Pre-trained Transformer(OpenAI GPT生成型預(yù)訓(xùn)練變換器)(Radford等,2018),引入了最小的任務(wù)特定參數(shù),并通過(guò)簡(jiǎn)單地微調(diào)預(yù)訓(xùn)練參數(shù)在下游任務(wù)中進(jìn)行訓(xùn)練。
*這里不得不提一下遷移學(xué)習(xí)中的Fine-tune,這里可以參考csdn的一篇文章: https://blog.csdn.net/u013841196/article/details/80919857
( https://arxiv.org/abs/1805.12471 )
第二種,假設(shè)當(dāng)前任務(wù)是input一個(gè)sentence,輸出這個(gè)句子中的每個(gè)詞匯屬于正例還是負(fù)例。舉例現(xiàn)在的任務(wù)是slot filling填槽任務(wù)(填槽指的是為了讓用戶意圖轉(zhuǎn)化為用戶明確的指令而補(bǔ)全信息的過(guò)程)(另一種解釋是從大規(guī)模的語(yǔ)料庫(kù)中抽取給定實(shí)體(query)的被明確定義的屬性(slot types)的值(slot fillers))(槽可以理解為實(shí)體已明確定義的屬性),輸入的句子是 arrive Taipei on November 2nd輸出的槽是other dest on time time
訓(xùn)練流程:
1)將句子輸入BERT,句子中的每個(gè)詞匯都會(huì)映射出一個(gè)embedding;
2)每個(gè)詞匯的embedding輸入Linear Classifier,輸出結(jié)果;
3)Linear Classifier 白手起家和Bert微調(diào)的方式一起去做學(xué)習(xí)。
第三種,假設(shè)當(dāng)前任務(wù)是input輸入兩個(gè)句子,輸出class。舉例現(xiàn)在要進(jìn)行自然語(yǔ)言預(yù)測(cè),讓機(jī)器根據(jù)premise前提,預(yù)測(cè)這個(gè)hypothesis假設(shè)是True還是False還是unknown不知道。實(shí)際上,我們可以把這個(gè)任務(wù)當(dāng)成三分類(lèi)問(wèn)題。
訓(xùn)練過(guò)程:
1)在一個(gè)sentence前設(shè)置特殊符號(hào)[CLS],然后在要輸入的兩個(gè)sentence中間設(shè)置[SEP]分隔符號(hào);
2)將兩個(gè)sentence連同特殊符號(hào)一起輸入到BERT中;
3)將[CLS]輸入BERT后得到的embedding,再把它輸入linear Classifier中,得到class。
如圖所示,假設(shè)gravity的token序號(hào)是17,即 ,我們現(xiàn)在有一個(gè)問(wèn)題通過(guò)QA Model后得到的s=17,e=17,那么答案就是 為gravity;
同理,假設(shè)within a cloud的序號(hào)順序是77到79,即 到 ,我們現(xiàn)在有一個(gè)問(wèn)題通過(guò)QA Model后得到的s=77,e=79,那么答案就是 為within a cloud。
https://arxiv.org/abs/1905.05950
https://openreview.net/pdf?id=SJzSgnRcKX
這張圖顯示了BERT從0-24層的層數(shù)在針對(duì)不同的NLP任務(wù)上的表現(xiàn)。
https://d4mucfpksywv.cloudfront.net/better-language-models/language_models_are_unsupervised_multitask_learners.pdf
而所謂的GPT,它其實(shí)就是Transformer的Decoder。
我們簡(jiǎn)單的描述下GPT的訓(xùn)練過(guò)程:這里我們input<BOS>這個(gè)token和潮水,想要GPT預(yù)測(cè)輸出“退了”這個(gè)詞匯。
1)首先輸入[BOS](begin of sentence)和潮水,通過(guò)Word Embedding再乘上matrix W變成a 1到a 4,然后把它們丟進(jìn)self-attention 層中,這時(shí)候每一個(gè)input都分別乘上3個(gè)不同的matrix產(chǎn)生3個(gè)不同的vector,分別把它們命名為q,k,v。
q代表的是query (to match others用來(lái)去匹配其它的向量)
k代表的是key (to be matched用來(lái)去被query匹配的向量)
v代表的是value(information to be extracted用來(lái)被抽取的信息的向量)
2)現(xiàn)在要做的工作就是用每個(gè)query q 去對(duì)每個(gè) key k做attention(吃2個(gè)向量,輸出就是告訴你這2個(gè)向量有多么匹配或者可以說(shuō)輸入兩個(gè)向量輸出一個(gè)分?jǐn)?shù)alpha(而怎么去吃2個(gè)向量output一個(gè)分?jǐn)?shù),有很多不同的做法))。這里要預(yù)測(cè)潮水的下一個(gè)詞,所以乘 , 乘上 , 乘上 再經(jīng)過(guò)soft-max分別得到 到 。
3)我們用 和每一個(gè)v相乘, 和 相乘加上 和 相乘。以此類(lèi)推并相加,最終得到 。
4)然后經(jīng)過(guò)很多層的self-attention,預(yù)測(cè)得到”退了”這個(gè)詞匯。
同理,現(xiàn)在要預(yù)測(cè)”退了”的下一個(gè)詞匯,按照前面的流程可以得到 ,然后經(jīng)過(guò)很多層的self-attention層,得到”就”這個(gè)詞匯。
GPT的神奇之處在于它可以在完全沒(méi)有訓(xùn)練數(shù)據(jù)的情況下,就可以做到閱讀理解,摘要,翻譯。折線圖中顯示了它在參數(shù)量上升的情況下,F(xiàn)1的值的效果。
1.Transformer的問(wèn)題:
word Embedding 無(wú)上下文
監(jiān)督數(shù)據(jù)太少
解決方法:
Contextual Word Embedding
2.ELMo( E mbeddings from L anguages Mo del)
- 多層雙向的LSTM的NNLM
- RNN-based language models(trained from lots of sentences)
ELMo的問(wèn)題:
Contextual Word Embedding作為特征
不適合特定任務(wù)
3.OpenAI GPT的改進(jìn)
根據(jù)任務(wù)Fine-Tuning
使用Transformer替代RNN/LSTM
OpenAI GPT的問(wèn)題:
單向信息流的問(wèn)題
Pretraining(1)和Fine-Tuning(2)不匹配
解決辦法:
Masked LM
NSP Multi-task Learning
Encoder again
Tips:
- 使用中文模型
- max_seq_length可以小一點(diǎn),提高效率
- 內(nèi)存不夠,需要調(diào)整train_batch_size
- 有足夠多的領(lǐng)域數(shù)據(jù),可以嘗試Pretraining
二、關(guān)于硬盤(pán)MBR模式下的分區(qū)和系統(tǒng)啟動(dòng)的問(wèn)題,請(qǐng)多指教!
沿用了數(shù)十年的PC機(jī)主板架構(gòu)是BIOS模式。但在2004年,微軟和英特爾共同推出一種名為可擴(kuò)展固件接口(EFI)的主板升級(jí)換代方案。EFI,即可擴(kuò)展固件接口(Extensible Firmware Interface),EFI的位置很特殊,不像是BIOS那樣是固件又是接口,EFI只是一個(gè)接口,位于操作系統(tǒng)與平臺(tái)固件之間。到目前為止,現(xiàn)有的PC機(jī)主板絕大部分還是BIOS模式,EFI主板寥寥可數(shù)。
MBR,主引導(dǎo)記錄(Master Boot Record),也就是現(xiàn)有的硬盤(pán)分區(qū)模式。MBR分區(qū)的標(biāo)準(zhǔn)決定了MBR只支持在2TB以下的硬盤(pán),超過(guò)2TB的硬盤(pán)只能管理2TB!為解決這個(gè)大問(wèn)題,微軟和英特爾在EFI方案中開(kāi)發(fā)了GPT分區(qū)模式。
GPT,全局唯一標(biāo)識(shí)分區(qū)表(GUID Partition Table),GUID,全局唯一標(biāo)識(shí)符 (Globally Unique Identifier) 。GPT是EFI方案的一部分,但并不依賴于EFI主板,在BIOS主板的PC中也可使用GPT分區(qū)。與MBR最大4個(gè)分區(qū)表項(xiàng)的限制相比,GPT對(duì)分區(qū)數(shù)量沒(méi)有限制,但Windows最大僅支持128個(gè)GPT分區(qū)。GPT可管理硬盤(pán)大小達(dá)到了18EB(1EB=1024PB=1,048,576TB),不過(guò)NTFS格式最大僅支持256TB。
GPT的分區(qū)信息是在分區(qū)中,而不象MBR一樣在主引導(dǎo)扇區(qū),為保護(hù)GPT不受MBR類(lèi)磁盤(pán)管理軟件的危害,GPT在主引導(dǎo)扇區(qū)建立了一個(gè)保護(hù)分區(qū)(Protective MBR)的MBR分區(qū)表,這種分區(qū)的類(lèi)型標(biāo)識(shí)為0xEE,這個(gè)保護(hù)分區(qū)的大小在Windows下為128MB,Mac OS X下為200MB,在Window磁盤(pán)管理器里名為GPT保護(hù)分區(qū),可讓MBR類(lèi)磁盤(pán)管理軟件把GPT看成一個(gè)未知格式的分區(qū),而不是錯(cuò)誤地當(dāng)成一個(gè)未分區(qū)的磁盤(pán)。
2008年,硬盤(pán)容量突飛猛進(jìn),1.5T硬盤(pán)價(jià)格已降至RMB900元以下,在咱們CCF硬件版的帖子就可以看出,1.5T硬盤(pán)都已開(kāi)始在CCFer中普及啦。。。。單碟500G的硬盤(pán)也已經(jīng)面市,預(yù)計(jì)2T、2.5T硬盤(pán)在2009年就會(huì)面市??墒牵?009年你想把舊硬盤(pán)換成2.5T硬盤(pán)?且慢!。。。由于MBR分區(qū)模式最大只能支持2TB硬盤(pán),2.5T硬盤(pán)必須使用GPT分區(qū)模式!我們先未雨綢繆,看看Windows對(duì)GPT分區(qū)的支持情況:
1. Windows 95/98/ME、Windows NT 4、Windows 2000、Windows XP 32 位版本不支持GPT分區(qū),只能查看GPT的保護(hù)分區(qū),GPT不會(huì)被裝載或公開(kāi)給應(yīng)用軟件;
2. Windows XP x64 版本只能使用GPT磁盤(pán)進(jìn)行數(shù)據(jù)操作,只有基于安騰處理器 (Itanium)的 Windows系統(tǒng)才能從 GPT 分區(qū)上啟動(dòng);
3. Windows Server 2003 32bit Server Pack 1 以后的所有Windows 2003版本都能使用GPT分區(qū)磁盤(pán)進(jìn)行數(shù)據(jù)操作,只有基于安騰處理器(Itanium)的Windows系統(tǒng)才能從 GPT 分區(qū)上啟動(dòng);
4. Windows Vista 和 Windows Server 2008的所有版本都能使用GPT分區(qū)磁盤(pán)進(jìn)行數(shù)據(jù)操作;但只有基于EFI主板的系統(tǒng)支持從GPT啟動(dòng)。
I never think of the future. It comes soon enough.
三、GOT比GPT高
【 原 理 】
轉(zhuǎn)氨酶是體內(nèi)重要的一類(lèi)酶.轉(zhuǎn)氨酶催化α–氨基酸的α–氨基與α–酮酸的α–酮基之間的相互轉(zhuǎn)化,從而生成一種新的氨基酸與一種新的酮酸,這種作用稱為轉(zhuǎn)氨基作用.它在生物體內(nèi)蛋白質(zhì)的合成,分解等中間代謝過(guò)程中,在糖,脂及蛋白質(zhì)三大物質(zhì)代謝的相互聯(lián)系,相互制約及相互轉(zhuǎn)變上都起著很重要的作用.
在動(dòng)物機(jī)體中活力最強(qiáng),分布最廣的轉(zhuǎn)氨酶有兩種:一種為谷氨酸草酰乙酸轉(zhuǎn)氨酶(glutamic-Oxaloacetate transaminase簡(jiǎn)稱GOT),另一種為谷氨酸丙酮酸轉(zhuǎn)氨酶(glutamic-pyruvic transaminase簡(jiǎn)稱GPT).本實(shí)驗(yàn)以谷氨酸丙酮酸轉(zhuǎn)氨酶為例.它的催化反應(yīng)如下:
GPT
丙氨酸 + α–酮戊二酸 谷氨酸 + 丙酮酸
37℃
由上可見(jiàn)此反應(yīng)最終產(chǎn)物是丙酮酸.測(cè)定單位時(shí)間內(nèi)丙酮酸的產(chǎn)量即可得知轉(zhuǎn)氨酶的活性.
丙酮酸可與2,4–二硝基苯肼反應(yīng),形成丙酮酸二硝基苯腙,在堿性溶液中呈棕紅色,顯色的深淺在一定范圍內(nèi)可反映所生成的丙酮酸量多少,與同樣處理的丙酮酸標(biāo)準(zhǔn)液進(jìn)行比色,計(jì)算出其含量,以此測(cè)定轉(zhuǎn)氨酶的活性.
丙酮酸 + 2,4–二硝基苯肼 丙酮酸–2,4–二硝基苯腙(棕紅色)
本實(shí)驗(yàn)用金氏(King)法(1)測(cè)定轉(zhuǎn)氨酶的活性單位為:每毫升血清與基質(zhì)在37℃下作用60分鐘,生成1μmol丙酮酸為1個(gè)單位.
【 試劑和器材 】
一 試劑
1.1/15 mol/L pH7.4磷酸鹽緩沖溶液:
甲液:1/15 mol/L磷酸氫二鈉溶液:稱取磷酸氫二鈉(Na2HPO4)9.47g(或Na2HPO4 · 12H2O 23.87g)溶解于蒸餾水中,定容至1 000 ml.
乙液:1/15 mol/L磷酸二氫鉀溶液:稱取磷酸二氫鉀(KH2PO4)9.078g,溶解于蒸餾水中,定容至1 000 ml.
取甲液825 ml乙液175 ml混合,測(cè)其pH為7.4即1/15 mol/L pH7.4磷酸鹽緩沖液.
2.GPT基質(zhì)液:精確稱取a–酮戊二酸29.2 mg及DL–丙氨酸1.78g,溶于1/15 mol/L pH 7.4的磷酸鹽緩沖液50ml 中溶解,加1mol/L NaOH溶液0.5ml,校正pH至7.4.再以pH 7.4的磷酸緩沖液定容至100ml,充分混合,冰凍貯存.
3.2,4–二硝基苯肼溶液:精確稱取2,4–二硝基苯肼20mg,先溶解于10ml濃鹽酸中(可加熱助溶),再以蒸餾水稀釋至100ml(有沉渣可過(guò)濾),棕色瓶?jī)?nèi)保存.(注意:此溶液配制時(shí)釋放大量的熱和難聞氣味配制時(shí)應(yīng)戴上口罩)
4.丙酮酸標(biāo)準(zhǔn)液(1ml = 2μmol丙酮酸即2mmol/L):精確稱取丙酮酸鈉22mg于100ml容量瓶中,用1/15 mol/L pH 7.4磷酸鹽緩沖溶液稀釋至刻度.此溶液應(yīng)新鮮配制,不能存放.
5.0.4 mol/L氫氧化鈉溶液:稱取16g氫氧化鈉溶解于蒸餾水中,定容至1 000ml.
6.1mol/L氫氧化鈉溶液:稱取4g氫氧化鈉溶解于蒸餾水中,定容至1 00ml.
7.血清300ml.
二 器材
1.水浴鍋.
2.分光光度計(jì).
【 操 作 】
1.標(biāo)準(zhǔn)曲線制作:取6支試管按下表操作.
試管號(hào)
試 劑
1 2 3 4 5 6
丙酮酸標(biāo)準(zhǔn)液 (ml)
GPT基質(zhì)液 (ml)
PH7.4磷酸緩沖液(ml)
0 0.05 0.1 0.15 0.2 0.25
0.5 0.45 0.4 0.35 0.3 0.25
0.1 0.1 0.1 0.1 0.1 0.1
水浴37℃,10分鐘
2,4二硝基苯肼溶液(ml) 0.5 0.5 0.5 0.5 0.5 0.5
保溫37℃,20分鐘
0.4N氫氧化鈉溶液 (ml) 5.0 5.0 5.0 5.0 5.0 5.0
相當(dāng)活性(單位數(shù)) 空白 100 200 300 400 500
混勻后,用分光光度計(jì)在520nm波長(zhǎng)處進(jìn)行比色測(cè)定,以空白調(diào)零,讀取各管吸光度讀數(shù).以各管相應(yīng)的轉(zhuǎn)氨酶活性單位值為橫坐標(biāo),吸光度值為縱坐標(biāo),用坐標(biāo)紙繪制標(biāo)準(zhǔn)曲線.
2.GPT測(cè)定:取2支潔凈的試管按下表操作.
試 劑 空 白 測(cè) 定
血 清 (ml) 0.1 0.1
G PT基質(zhì)液 (ml) -- 0.5
混勻, 37℃水浴,60分鐘
G PT基質(zhì)液 (ml) 0.5 --
2,4二硝基苯肼溶液 (ml) 0.5 0.5
混勻, 37℃水浴,20分鐘
0.4mol/L氫氧化鈉 (ml) 5.0 5.0
混勻,放置5分鐘,用分光光度計(jì)在波長(zhǎng)520nm波長(zhǎng)處進(jìn)行比色測(cè)定,以空白調(diào)零,讀取測(cè)定管吸光度值.
【 實(shí)驗(yàn)結(jié)果 】
所測(cè)得的吸光度值在已繪制好的標(biāo)準(zhǔn)曲線上直接查對(duì),即可得知待測(cè)轉(zhuǎn)氨酶的活性單位.
【 注意事項(xiàng) 】
1.測(cè)定血清中轉(zhuǎn)氨酶活性主要有金氏 (King) 法,賴氏 (Reitman—Frankel)法和改良穆氏(Mohun)法.這三種方法的原理,試劑和操作方法包括血清和試劑的用量及作用溫度均相同,不同之處是金氏法酶作用時(shí)間為60分鐘,而其他二法為30分鐘.因此活性單位定義不同.
2.轉(zhuǎn)氨酶只作用于L–型氨基酸,對(duì)D–型氨基酸無(wú)催化能力.實(shí)驗(yàn)中所用的是DL–型的混旋氨基酸.若采用L–型時(shí),則用量比DL–型少一半.
3.所用儀器應(yīng)清潔,不應(yīng)含有酸,堿,Zn2+,Ca2+,Hg2+,Ag+等蛋白沉淀劑.
4.血清不應(yīng)溶血,因血細(xì)胞內(nèi)轉(zhuǎn)氨酶含量較多.樣品采集后應(yīng)當(dāng)日進(jìn)行測(cè)定,否則應(yīng)將血清分離后貯存于冰箱.
5.溫度及時(shí)間一定要嚴(yán)格控制,準(zhǔn)確掌握.pH要準(zhǔn)確以免影響酶活性.
實(shí)驗(yàn)二 過(guò)氧化氫酶及過(guò)氧化物酶的作用
【 原 理 】
在生物機(jī)體內(nèi),某些代謝物由于需氧脫氫的結(jié)果而產(chǎn)生對(duì)機(jī)體有害的過(guò)氧化氫.體內(nèi)的過(guò)氧化氫酶能催化過(guò)氧化氫分解成水和分子氧,使過(guò)氧化氫不致在體內(nèi)積累.因此,過(guò)氧化氫酶具有保護(hù)生物機(jī)體的作用.
過(guò)氧化氫酶是一種以鐵卟啉為輔基的酶,它廣泛存在于動(dòng)植物組織中.
過(guò)氧化物酶也是一種以鐵卟啉為輔基的酶,它能催化過(guò)氧化氫釋放出新生態(tài)氧以氧化某些酚類(lèi)和胺類(lèi)物質(zhì),例如,氧化溶于水中的焦性沒(méi)食子酸生成不溶于水的焦性沒(méi)食子橙(橙紅色).其作用機(jī)制如下:
E + H2O2 E–H2O2
E–H2O2 + H2O2 E + 2 H2O + O2
【 試劑和器材 】
一 試劑
2%過(guò)氧化氫溶液:此溶液易見(jiàn)光分解,應(yīng)新鮮配制.
1%焦性沒(méi)食子酸溶液:焦性沒(méi)食子酸1g,用蒸餾水溶解并配至100ml.此溶液易
氧化,應(yīng)新鮮配制.
鐵粉.
二 材料
鮮豬肝糜.
馬鈴薯或血液.
白菜梗提取液:白菜梗約5g,切成細(xì)塊,置研缽內(nèi),加蒸餾水15ml研磨成漿,轉(zhuǎn)
移出濾液,備用.
【 操 作 】
1.過(guò)氧化氫酶的作用
取試管5支,按下表操作:
試管 2% H2O2(ml) 新鮮肝糜 (g) 煮沸肝糜(g) 生馬鈴薯(g) 熟馬鈴薯(g) 鐵粉
1 3 0.5 - - - -
2 3 - 0.5 - - -
3 3 - - 1 - -
4 3 - - - 1 -
5 3 - - - - 少許
加畢,觀察有無(wú)氣泡放出,特別是肝糜周?chē)婉R鈴薯周?chē)?
2.過(guò)氧化物酶的作用
取試管4支,按下表操作:
試管 1%焦性沒(méi)食子酸 2% H2O2 蒸餾水 白菜梗提取液 煮沸的白菜梗提取液
(ml) (滴) (ml) (ml) (ml)
1 2 2 2 - -
2 2 - - 2 -
3 2 2 - 2 -
4 2 2 - - 2
搖勻后,觀察并記錄各管顏色變化和沉淀的出現(xiàn).
實(shí)驗(yàn)三 琥珀酸脫氫酶及丙二酸的抑制作用
【 原 理 】
琥珀酸脫氫酶是三羧酸循環(huán)中的一個(gè)重要的酶,測(cè)定細(xì)胞中有無(wú)這種酶可以初步鑒定
三羧酸循環(huán)途徑是否存在.琥珀酸脫氫酶可使其底物脫氫,產(chǎn)生的氫可通過(guò)一系列傳遞體最后遞給氧而生成水.在缺氧的情況下,若有適當(dāng)?shù)氖軞潴w也可顯示出脫氫酶的作用.如心肌中的琥珀酸脫氫酶在缺氧的情況下,可使琥珀酸脫氫生成延胡索酸,脫下之氫可將藍(lán)色的甲烯藍(lán)還原成無(wú)色的甲烯白.這樣,便可以顯示琥珀酸脫氫酶的作用.
琥珀酸 + 甲烯藍(lán) 琥珀酸脫氫酶 延胡索酸 + 甲烯白
丙二酸的化學(xué)結(jié)構(gòu)與琥珀酸相似,它能與琥珀酸競(jìng)爭(zhēng)而和琥珀酸脫氫酶結(jié)合.若琥珀酸脫氫酶已與丙二酸結(jié)合,則不能再催化琥珀酸脫氫,這種現(xiàn)象稱為競(jìng)爭(zhēng)性抑制.如相對(duì)地增加琥珀酸的濃度,則可減輕丙二酸的抑制作用.
【 試劑和器材 】
一 試劑
1.1.5%琥珀酸鈉溶液:取琥珀酸鈉1.5g,用蒸餾水溶解并稀釋至100ml.如無(wú)琥珀酸鈉可用琥珀酸配成水溶液后,以氫氧化鈉溶液中和至pH7~8.
2.1%丙二酸鈉溶液:取丙二酸鈉1g,用蒸餾水溶解并稀釋至100ml.
3.0.02%甲烯藍(lán)溶液.
4.1/15mol/LNa2HPO4溶液:取Na2HPO4 · 2H2O 11.88g,用蒸餾水溶解并稀釋至1 000ml.
5.液體石蠟.
二 器材
1.玻璃勻漿器.
2.離心機(jī).
三 材料
新鮮豬心.
【 操 作 】
1.豬心臟制備液:稱取新鮮豬心1.5~2.0g玻璃勻漿器放中,加入等體積的石英砂及1/15mol/LNa2HPO4溶液3~4ml,搗碎成漿,再加入6~7ml1/15mol/LNa2HPO4溶液,放置一小時(shí),不時(shí)搖動(dòng),離心(3000r/min 10 min)取上清液備用.
2.取4支試管,編號(hào)并按下表操作:
試管 心臟制備液 1.5%琥珀酸鈉溶液 1%丙二酸鈉溶液 蒸餾水 0.02%甲烯藍(lán)溶液
(滴) (滴) (滴) (滴) (滴)
1 5 5 - 10 2
2 5(先煮沸) 5 - 10 2
3 5 5 5 5 2
4 5 10 5 5 2
3.各管溶液混勻后,每管各加液體石蠟一薄層(約5~10滴).為什么
4.各管置于37℃水浴中,半小時(shí)內(nèi)觀察各管顏色變化,比較其速度并說(shuō)明原因.然后將第一管用力搖動(dòng),觀察其有何變化 為什么
實(shí)驗(yàn)四 γ–球蛋白的分離
【 原 理 】
中性鹽 (如硫酸銨,硫酸鈉,氯化鈉,硫酸鎂等)對(duì)球狀蛋白質(zhì)的溶解度有顯著影響.隨著中性鹽濃度的增加,離子強(qiáng)度也增加.當(dāng)溶液離子強(qiáng)度增加到一定數(shù)值時(shí),溶液中蛋白質(zhì)的溶解度開(kāi)始下降.離子強(qiáng)度增加到足夠高時(shí),蛋白質(zhì)可從水溶液中沉淀出來(lái),這種現(xiàn)象叫做鹽析.各種蛋白質(zhì)的溶解度不同,因而可利用不同濃度的高濃度鹽溶液來(lái)沉淀分離各種蛋白質(zhì).
蛋白質(zhì)是一種生物大分子,它具有不能通過(guò)半透膜的性質(zhì).透析就是利用這種性質(zhì)使之與其它小分子物質(zhì)如無(wú)機(jī)鹽,單糖等分開(kāi).本次實(shí)驗(yàn)應(yīng)用的是脫鹽透析,即鹽析后,將含大量鹽類(lèi)的蛋白質(zhì)溶液放在半透膜的袋內(nèi),再將透析袋浸入蒸餾水中.經(jīng)過(guò)一段時(shí)間,袋內(nèi)的鹽類(lèi)濃度即逐漸降低.若經(jīng)常更換袋外的液體,最后即可使袋內(nèi)的蛋白質(zhì)溶液中所含的鹽類(lèi)除凈,從而達(dá)到脫鹽的目的.應(yīng)用不同濃度硫酸銨分段鹽析法將血清中γ–球蛋白及α,β球蛋白分離,最后用透析法脫鹽,即可得到純度較高的γ–球蛋白.
【 試劑和器材 】
一 試劑
1.pH 7.2,0.01mol/L磷酸鹽緩沖液生理鹽水(簡(jiǎn)稱PBS): 取0.2mol/L Na2HPO4溶液36.0ml,0.2mol /L NaH2PO4溶液14.0ml混合,加NaCl 8.5克,用蒸餾水稀釋至1 000ml.
2.pH7.2飽和硫酸銨溶液:用濃氨水將2 000ml飽和硫酸銨溶液調(diào)pH到7.2.
3.納氏試劑:
納氏試劑貯存液:于500ml三角燒瓶?jī)?nèi)加入碘化鉀150克,碘110克,汞50克及蒸餾水l00ml,用力振蕩7~15分鐘,至碘色將轉(zhuǎn)變時(shí),此混合液即產(chǎn)生高熱.隨即將此燒瓶浸于冷水內(nèi)振蕩,直至棕色之碘轉(zhuǎn)變成帶綠色之碘化鉀汞溶液為止.將上清液傾入2 000ml量筒內(nèi),并用蒸餾水洗滌瓶?jī)?nèi)沉淀物數(shù)次.將洗滌液一并傾入量筒內(nèi),加蒸餾水至2 000ml刻度后,混勻即成.
納氏試劑應(yīng)用液:取10%氫氧化鈉700ml,鈉氏試劑貯存液150ml及蒸餾水150ml混勻即成,如顯混濁,可靜置數(shù)日后取上清液使用.此試劑之酸堿度極為重要.用lmol/L鹽酸溶液20ml滴定時(shí),需此試劑11~11.5ml恰好使酚酞指示劑變成紅色時(shí)最為適宜.否則必須糾正其酸堿度.
4.雙縮脲試劑:溶解1.50克硫酸銅(CuSO4·5H2O)和6.0克酒石酸鉀鈉(NaKC4H406 · 4H20)于500ml蒸餾水中.在攪拌下加入10%氫氧化鈉溶液300ml,用蒸餾水稀釋到1升,貯存在內(nèi)壁涂以石蠟的瓶中,可長(zhǎng)期保存.
5.濃蔗糖液:蔗糖的飽和溶液.
6.10%氫氧化鈉:取10克氫氧化鈉溶解于蒸餾水中,定容至100ml.
二 器材
1.透析袋.
2.磁力攪拌器.
3.離心機(jī).
三 材料
兔血清
【 操 作 】
一 鹽析
1.取離心管1支加入血清2ml,再加入等量PBS稀釋血清,搖勻后,逐漸加入pH7.2飽和硫酸銨溶液2ml(相當(dāng)于33%飽和度硫酸銨),邊加邊搖.然后靜止半小時(shí),再離心(3 000r/min)20分鐘,傾去上清液(主要含白蛋白).
2.用lml PBS將離心管底部的沉淀攪拌溶解,再逐滴加飽和硫酸銨溶液0.5m1.搖勻后放置半小時(shí),離心(3 000r/min)20分鐘,傾去上清液(主要含α,β球蛋白),其沉淀即為初步純化的γ–球蛋白.如要得到更純的γ–球蛋白,可重復(fù)鹽析過(guò)程1~2 次.
3.把提取的γ–球蛋白用1 mlPBS懸浮.
二 透析脫鹽與濃縮
1.將鹽析得到的γ–球蛋白放入透析袋內(nèi),用線繩縛緊上口,用玻璃棒懸在盛有半杯蒸餾水的100ml燒杯中,使透析袋下半部浸入水中.
2.將燒杯放在磁力攪拌器上攪拌1小時(shí)以上(中間換水1~2次),然后將透析袋取下.小心將線繩解開(kāi),吸取袋內(nèi)的液體,與燒懷中的水同時(shí)用雙縮脲試劑檢查袋內(nèi)外的蛋白質(zhì),用納氏試劑檢查袋內(nèi)外液體中的銨離子(NH4+),觀察透析法的脫鹽效果.
3.脫鹽后得到的γ–球蛋白溶液可繼續(xù)濃縮,即用透析袋裝好懸于盛有10ml濃蔗糖或聚乙二醇溶液的小燒杯內(nèi)1小時(shí)以上,觀察袋內(nèi)液體體積的變化.
實(shí)驗(yàn)五 γ–球蛋白含量測(cè)定(光度分析法)
【 原 理 】
雙縮脲法是蛋白質(zhì)光度分析法的一種,是利用蛋白質(zhì)的雙縮脲反應(yīng)而測(cè)定蛋白質(zhì)含量的方法.因蛋白質(zhì)含有兩個(gè)以上的肽鍵,所以有雙縮脲反應(yīng).在堿性溶液中蛋白質(zhì)與Cu2+形成紫紅色絡(luò)合物,其顏色的深淺與蛋白質(zhì)的濃度成正比,而與蛋白質(zhì)的分子量及氨基酸成分無(wú)關(guān).在一定的實(shí)驗(yàn)條件下,未知樣品溶液與標(biāo)準(zhǔn)蛋白質(zhì)溶液同時(shí)反應(yīng),并于540~560nm測(cè)定,即可以通過(guò)標(biāo)準(zhǔn)蛋白質(zhì)的標(biāo)準(zhǔn)曲線求出未知樣品的蛋白質(zhì)濃度.
【 試劑和器材 】
一 試劑
1.標(biāo)準(zhǔn)酪蛋白溶液(5mg/ml):用0.05mol/L NaOH溶液配制:5g酪蛋白加0.05mol/L NaOH溶液至1 000ml.
2.雙縮脲試劑:溶解1.5g硫酸銅(CuSO4 · 5H2O)和6.0 g酒石酸鉀鈉(NaKC4H4O6 · 4H2O)于500ml蒸餾水中.在攪拌下加入10% NaOH溶液300ml,用蒸餾水稀釋到1升,貯存在內(nèi)壁涂有石蠟的瓶中,可長(zhǎng)期保存.
3.未知蛋白質(zhì)溶液:γ–球蛋白溶液.
二 器材
分光光度計(jì).
【 操 作 】
1.標(biāo)準(zhǔn)曲線的繪制:取6支試管按下表操作.
試 劑 1 2 3 4 5 6
標(biāo)準(zhǔn)酪蛋白溶液(ml) 0 0.4 0.8 1.2 1.6 2.0
蒸餾水 (ml) 2 1.6 1.2 0.8 0.4 0
雙縮脲試劑 (ml) 4 4 4 4 4 4
室溫下(15~25℃)放置30分鐘,用分光光度計(jì)于540nm測(cè)定.以光密度為縱坐標(biāo),酪蛋白含量為橫坐標(biāo)用坐標(biāo)紙繪制標(biāo)準(zhǔn)曲線.
2.γ–球蛋白溶液濃度的測(cè)定:取3支試管按下表操作.
試 劑 空白管 測(cè)定1 測(cè)定2
γ–球蛋白溶液(ml) - 1 1
蒸餾水 (ml) 2 1 1
雙縮脲試劑 (ml) 4 4 4
搖勻,放置30分鐘,540nm測(cè)定讀取光密度.
【 實(shí)驗(yàn)結(jié)果 】
求出待測(cè)蛋白質(zhì)溶液的光密度后,從標(biāo)準(zhǔn)曲線上查出其蛋白質(zhì)濃度,按稀釋倍數(shù)求出每毫升蛋白質(zhì)溶液的蛋白質(zhì)含量.
實(shí)驗(yàn)六 凝膠柱層析法(γ–球蛋白純化)
【 原 理 】
凝膠層析(gel chromatography),又稱為凝膠過(guò)濾(gel filtration),分子篩過(guò)濾(molecular sieve filtration),凝膠滲透層析(gel osmotic chromatography)等.它是20世紀(jì)60年代發(fā)展起來(lái)的一種層析技術(shù).其基本原理是利用被分離物質(zhì)分子大小不同及固定相(凝膠)具有分子篩的特點(diǎn),將被分離物質(zhì)各成分按分子大小分開(kāi),達(dá)到分離的方法.
凝膠是由膠體粒子構(gòu)成的立體網(wǎng)狀結(jié)構(gòu).網(wǎng)眼里吸滿水后凝膠膨脹呈柔軟而富于彈性的半固體狀態(tài).人工合成的凝膠網(wǎng)眼較均勻地分布在凝膠顆粒上有如篩眼,小于篩眼的物質(zhì)分子均可通過(guò),大于篩眼的物質(zhì)分子則不能,故稱為"分子篩".凝膠之所以能將不同分子的物質(zhì)分開(kāi)是因?yàn)楫?dāng)被分離物質(zhì)的各成分通過(guò)凝膠時(shí),小于篩眼的分子將完全滲入凝膠網(wǎng)眼,并隨著流動(dòng)相的移動(dòng)沿凝膠網(wǎng)眼孔道移動(dòng),從一個(gè)顆粒的網(wǎng)眼流出,又進(jìn)入另一顆粒的網(wǎng)眼,如此連續(xù)下去,直到流過(guò)整個(gè)凝膠柱為止,因而流程長(zhǎng),阻力大,流速慢;大于篩眼的分子則完全被篩眼排阻而不能進(jìn)入凝膠網(wǎng)眼,只能隨流動(dòng)相沿凝膠顆粒的間隙流動(dòng),其流程短,阻力小,流速快,比小分子先流出層析柱;小分子最后流出.分子大小介于完全排阻不能進(jìn)入或完全滲入凝膠篩眼之間的物質(zhì)分子,則居中流出.這樣被分離物質(zhì)即被按分子的大小分開(kāi).
用于凝膠層析的凝膠均為人工合成的產(chǎn)品,主要有交聯(lián)葡聚糖(商品名為Sephadex),瓊脂糖(商品名為Sepharose),聚丙烯酰胺凝膠(商品名為Bio–gel)及具有一定網(wǎng)眼的細(xì)玻璃珠等和這些
四、比chatgpt更新的技術(shù)是
GPT-3:GPT-3是由OpenAI開(kāi)發(fā)的語(yǔ)言模型,擁有比我更多的參數(shù)和更高的精度,能夠生成更加自然、流暢的文本。
AlphaFold:AlphaFold是DeepMind開(kāi)發(fā)的人工智能系統(tǒng),能夠預(yù)測(cè)蛋白質(zhì)的三維結(jié)構(gòu),對(duì)于生物學(xué)和藥物研發(fā)等領(lǐng)域具有重要意義。
自動(dòng)駕駛技術(shù):自動(dòng)駕駛技術(shù)是一個(gè)涵蓋多個(gè)領(lǐng)域的復(fù)雜系統(tǒng),涉及計(jì)算機(jī)視覺(jué)、機(jī)器學(xué)習(xí)、控制系統(tǒng)等多個(gè)技術(shù)領(lǐng)域,目前在一些公司和實(shí)驗(yàn)室已經(jīng)有了初步的應(yīng)用。
量子計(jì)算:量子計(jì)算是一種基于量子力學(xué)原理的計(jì)算方法,擁有比傳統(tǒng)計(jì)算機(jī)更高的計(jì)算速度和效率,在一些領(lǐng)域如密碼學(xué)、化學(xué)模擬等有廣泛應(yīng)用前景。
以上就是關(guān)于instructGPT原理相關(guān)問(wèn)題的回答。希望能幫到你,如有更多相關(guān)問(wèn)題,您也可以聯(lián)系我們的客服進(jìn)行咨詢,客服也會(huì)為您講解更多精彩的知識(shí)和內(nèi)容。
推薦閱讀:
設(shè)計(jì)師買(mǎi)什么筆記本電腦(設(shè)計(jì)師買(mǎi)什么筆記本電腦ThinkPad)
簡(jiǎn)約ins風(fēng)工作室名字(大氣帶有高級(jí)感的店名)
87skins開(kāi)箱網(wǎng)官網(wǎng)(88skins開(kāi)箱網(wǎng))
如何學(xué)好網(wǎng)絡(luò)工程專(zhuān)業(yè)(如何學(xué)好網(wǎng)絡(luò)工程專(zhuān)業(yè)知識(shí))