原標(biāo)題:輕松了解生成式AI,亞馬遜云科技詞匯表一鍵get
亞馬遜云科技一直致力于推進(jìn)生成式AI普惠化,以降低AI/ML門檻,助力千行百業(yè),充分釋放生成式AI潛力,加速數(shù)智轉(zhuǎn)型與創(chuàng)新。接下來分享由亞馬遜云科技高級(jí)開發(fā)技術(shù)推廣工程師Brooke Jamieson整理總結(jié)的生成式AI詞匯表的N-Z部分內(nèi)容!
N:代表神經(jīng)網(wǎng)絡(luò)(Neural Network)
神經(jīng)網(wǎng)絡(luò)是人工智能對(duì)于人類大腦處理信息過程的一種模仿,通過每層或者說“神經(jīng)元”中的關(guān)聯(lián)節(jié)點(diǎn)對(duì)數(shù)據(jù)進(jìn)行學(xué)習(xí),并隨著時(shí)間推移不斷提升性能。神經(jīng)網(wǎng)絡(luò)使得計(jì)算機(jī)可以處理像圖像和文字解讀等復(fù)雜的任務(wù),所以它在圖像識(shí)別、語音轉(zhuǎn)換文本、自然語言處理、以及個(gè)性化推薦等服務(wù)的實(shí)現(xiàn)中至關(guān)重要。神經(jīng)網(wǎng)絡(luò)可以學(xué)習(xí)并模仿輸入輸出數(shù)據(jù)間復(fù)雜且非線性的關(guān)系。
O:代表基礎(chǔ)模型優(yōu)化(Optimization)
在AI/ML中,優(yōu)化意味著通過調(diào)整超參數(shù)對(duì)模型進(jìn)行微調(diào)以提高性能。這些超參數(shù)屬于外部配置變量,例如神經(jīng)網(wǎng)絡(luò)中的節(jié)點(diǎn)數(shù)量或?qū)W習(xí)率等超參數(shù)在模型訓(xùn)練開始之前就已設(shè)定。使用貝葉斯優(yōu)化或網(wǎng)格搜索等方法尋找這些超參數(shù)的最優(yōu)值稱為超參數(shù)調(diào)優(yōu),此過程可以確保模型獲得最優(yōu)結(jié)果和 度。
P:代表提示工程(Prompt Engineering)
提示工程(Prompt Engineering)是設(shè)計(jì)和精煉提示或輸入激勵(lì)以引導(dǎo)大型語言模型生成特定輸出的過程。這涉及謹(jǐn)慎選擇關(guān)鍵字,提供上下文,以及在構(gòu)建輸入時(shí),對(duì)模型要有具體的引導(dǎo)以使其產(chǎn)生期望的回復(fù)。無需通過微調(diào)復(fù)雜定制,通過提示工程即可控制模型的風(fēng)格,語調(diào)和專業(yè)知識(shí)。在提示工程上預(yù)先投入精力,即便在未知數(shù)據(jù)或數(shù)據(jù)有限的情況下,模型生成也能表現(xiàn)良好。
Q:代表量化(Quantisation)
通常來說,量化涉及將連續(xù)值轉(zhuǎn)化為離散值。連續(xù)值是你可以測量的東西,并且可以在一定區(qū)間內(nèi)取任何值(例如,溫度值可以是26.31°),離散值則是孤立的點(diǎn)集(例如,海灘上的可卡犬的數(shù)量)。在機(jī)器學(xué)習(xí)的背景下,量化在神經(jīng)網(wǎng)絡(luò)中發(fā)揮作用,此時(shí)它表示將權(quán)重和激活轉(zhuǎn)換為低精度值。這是一個(gè)重要的轉(zhuǎn)換過程,特別是如果模型需要在內(nèi)存有限的設(shè)備上運(yùn)行,因?yàn)樗梢詭椭鷾p少神經(jīng)網(wǎng)絡(luò)的內(nèi)存要求、功耗和延遲。
R:代表負(fù)責(zé)任的人工智能(Responsibility)
AI中的責(zé)任是指在AI模型的開發(fā)和應(yīng)用中持有的認(rèn)知和道德原則,專注于公平性、有害性、真實(shí)性、隱私和知識(shí)產(chǎn)權(quán)等原則。生成式AI的復(fù)雜性(可以生成一系列內(nèi)容)在定義和執(zhí)行道德原則上提出了特殊的挑戰(zhàn)。開發(fā)負(fù)責(zé)任的AI的策略包括謹(jǐn)慎輸入訓(xùn)練數(shù)據(jù)、開發(fā)防護(hù)模型以過濾不必要的內(nèi)容,以及在各個(gè)領(lǐng)域持續(xù)合作以確保AI系統(tǒng)對(duì)所有用戶都具備創(chuàng)新性、可靠性并尊重隱私。
S:代表Amazon SageMaker
Amazon SageMaker是亞馬遜云科技提供的一項(xiàng)全面托管的機(jī)器學(xué)習(xí)服務(wù),使數(shù)據(jù)科學(xué)家和開發(fā)者能夠輕松構(gòu)建、訓(xùn)練和部署ML模型。它提供了一個(gè)集成的Jupyter Notebook,用于數(shù)據(jù)探索、分析和模型開發(fā),而無需管理服務(wù)器。SageMaker還提供優(yōu)化算法,并支持自定義框架,使其成為機(jī)器學(xué)習(xí)任務(wù)的靈活且可擴(kuò)展的解決方案。
T:代表Transformers模型
Transformers是一項(xiàng)在2017年的研究論文《注意力是你所需要的一切》(Attention Is All You Need)中提出的顛覆性技術(shù)。Transformer架構(gòu)是矩陣計(jì)算和神經(jīng)網(wǎng)絡(luò)的結(jié)合,其關(guān)鍵能力是將“注意力機(jī)制”應(yīng)用到輸入數(shù)據(jù)的相關(guān)部分。Transformers允許語言模型并行處理數(shù)據(jù),并考慮句子的整個(gè)語境,而不僅僅是最后幾個(gè)詞。這些特性使Transformers能有效處理大量數(shù)據(jù),對(duì)推動(dòng)生成式AI的發(fā)展起到了關(guān)鍵作用,并形成了能執(zhí)行復(fù)雜任務(wù)的大型語言模型的基礎(chǔ)。
U:代表無監(jiān)督學(xué)習(xí)(Unsupervised Learning)
無監(jiān)督學(xué)習(xí)是一種在無標(biāo)簽數(shù)據(jù)上訓(xùn)練的算法,輸出時(shí)也沒有對(duì)應(yīng)的標(biāo)簽。它可以用于自主發(fā)現(xiàn)數(shù)據(jù)中的隱藏模式、關(guān)系和結(jié)構(gòu),且沒有給定的目標(biāo)值。應(yīng)用包括將類似的內(nèi)容進(jìn)行聚類,如將新聞文章分類,或檢測網(wǎng)絡(luò)流量中的異常,即可能存在的安全漏洞。無監(jiān)督學(xué)習(xí)就像我去往一個(gè)新的城市,在沒有地圖指引的情況下,我會(huì)自己探索,找出地標(biāo)、布局和城市中的商店模式,自主地進(jìn)行探索。
相反,有監(jiān)督學(xué)習(xí)是在有標(biāo)記的數(shù)據(jù)上進(jìn)行訓(xùn)練,同時(shí)提供輸入和對(duì)應(yīng)的輸出。模型通過理解輸入和期望輸出之間的關(guān)系來進(jìn)行預(yù)測或決策。例如,利用樓盤位置和房間數(shù)量等特征來預(yù)測房屋價(jià)格,或從標(biāo)記過的數(shù)字圖像中識(shí)別手寫數(shù)字。有監(jiān)督學(xué)習(xí)就像對(duì)著參考答案做作業(yè)一樣——問題(輸入數(shù)據(jù))和答案(輸出標(biāo)簽)都已提供,所以你可以通過看問題和答案來學(xué)習(xí)。一旦一個(gè)模型(或者說學(xué)生)經(jīng)過有監(jiān)督學(xué)習(xí)訓(xùn)練,他們可以對(duì)新的未見過的數(shù)據(jù)做出預(yù)測,就像在考試中考到類似的題目一樣。
V:代表向量數(shù)據(jù)庫(Vector Databases)
向量數(shù)據(jù)庫是一種專用數(shù)據(jù)庫,支持存儲(chǔ)和檢索代表各種類型數(shù)據(jù)的高維向量。它可以用于在N維空間中有效和快速地查找最近鄰,因此對(duì)于語義搜索、向量搜索和多模態(tài)搜索等任務(wù)非常有用。向量數(shù)據(jù)庫在生成式AI應(yīng)用的背后起著關(guān)鍵作用,因?yàn)樗鼈兛梢灾С侄ㄖ普Z言模型,提高準(zhǔn)確性,并為對(duì)話式搜索或根據(jù)文本提示生成圖像等獨(dú)特的用戶體驗(yàn)提供基礎(chǔ)。
W:代表模型權(quán)重(Weights)
權(quán)重是神經(jīng)網(wǎng)絡(luò)中使用的數(shù)值,用于確定神經(jīng)元之間連接的強(qiáng)度,特別是在像在2017年的研究論文《注意力是你所需要的一切》(Attention Is All You Need)中提出的Transformer這樣的系統(tǒng)中。這些權(quán)重在注意力機(jī)制中起著關(guān)鍵作用,因?yàn)樗鼈兛梢宰尵W(wǎng)絡(luò)專注于輸入的特定部分,使模型能夠生成更具上下文相關(guān)性的輸出。你可以把權(quán)重看作是在訓(xùn)練過程中進(jìn)行微調(diào)的參數(shù),幫助模型理解和處理數(shù)據(jù)中的復(fù)雜關(guān)系和模式。
X:代表可解釋AI(XAI)
可解釋的人工智能(通常簡稱為XAI)對(duì)于建立對(duì)AI系統(tǒng)的信任和信心至關(guān)重要,特別是當(dāng)AI做出的決策可能產(chǎn)生重大后果時(shí)?山忉屝杂袃蓚(gè)關(guān)鍵方面:可詮釋性和可解釋性。可詮釋性意味著理解AI模型的內(nèi)部工作機(jī)制,如權(quán)重和特征,以理解如何生成預(yù)測及其原因。另一方面,可解釋性使用與模型無關(guān)的方法來用人類的語言描述AI模型的行為,即使對(duì)于“黑箱”模型也是如此。一個(gè)模型注重可詮釋性還是可解釋性,取決于具體的使用案例、數(shù)據(jù)類型和業(yè)務(wù)需求,這可能涉及在實(shí)現(xiàn)高性能和保持解釋模型行為的能力之間進(jìn)行權(quán)衡。
Y:代表你可以在亞馬遜云科技構(gòu)建這一切
(You Can Build on Amazon Web Services)
25年以來,亞馬遜一直致力于開發(fā)人工智能和機(jī)器學(xué)習(xí)技術(shù),許多開發(fā)者選擇在亞馬遜云科技構(gòu)建、訓(xùn)練和部署他們的AI/ML模型都不是偶然。
Z:代表零樣本學(xué)習(xí)(Zero-Shot Learning)
零樣本學(xué)習(xí)是一種機(jī)器學(xué)習(xí)技術(shù),這種技術(shù)可以讓模型對(duì)在訓(xùn)練階段未見過的數(shù)據(jù)進(jìn)行預(yù)測或分類。這個(gè)概念利用向量將輸入(例如文本或視頻)映射到一個(gè)語義空間,在這個(gè)空間中,意義被聚集起來。在這里,模型可以基于接近已知概念的程度,通過分析向量之間的距離,在語義空間中進(jìn)行分類或預(yù)測。零樣本學(xué)習(xí)對(duì)自然語言處理(NLP)等領(lǐng)域非常有用,它提供了靈活性,擴(kuò)展了如Transformers和基礎(chǔ)模型等預(yù)訓(xùn)練模型的應(yīng)用。
投稿郵箱:chuanbeiol@163.com 詳情請(qǐng)?jiān)L問川北在線:http://sanmuled.cn/