|
8#
發(fā)表于 2025-3-11 19:25:10
|
只看該作者
本帖最后由 學(xué)者11 于 2025-3-11 19:45 編輯
1網(wǎng)絡(luò)數(shù)據(jù)很多都是胡說(shuō)八道,最明顯的例子就是
Screenshot_20250127_104331.jpg (63.4 KB, 下載次數(shù): 0)
下載附件
2025-3-11 19:19 上傳
TMD哪來(lái)的4000點(diǎn),,后來(lái)有人找到了數(shù)據(jù)來(lái)源,,是某個(gè)自媒體的胡說(shuō)八道,而大模型它屁不懂,,就知道照抄,。就是TMD哪門子智能。
IMG_20240608_181528.jpg (63.15 KB, 下載次數(shù): 0)
下載附件
2025-3-11 19:24 上傳
要不是讀過(guò)標(biāo)準(zhǔn),,真就信了,。
笑話166.JPG (101.89 KB, 下載次數(shù): 0)
下載附件
2025-3-11 19:25 上傳
2 聽(tīng)說(shuō)過(guò)數(shù)據(jù)標(biāo)注員,你知道全國(guó)有多少人從事數(shù)據(jù)標(biāo)注員工作嗎,。而且也不存在各行各業(yè),,很多行業(yè)的常識(shí)大模型是根本不知道,是一點(diǎn)不懂,。
3你根本不知道大模型本質(zhì)是猜文字生成概率模型,,你就是讓AI全文閱讀標(biāo)準(zhǔn),它照樣胡說(shuō)八道,。
4 微調(diào)的依賴路徑是什么,,AI很大程度上依然取決于數(shù)據(jù)的質(zhì)量和數(shù)量。如果特定領(lǐng)域的數(shù)據(jù)量過(guò)少或質(zhì)量不高,,微調(diào)的效果不理想,。
而且在微調(diào)過(guò)程中,AI會(huì)“忘記”它在預(yù)訓(xùn)練階段學(xué)到的一些信息。所謂越調(diào)越傻,。
5 大模型不是靠用戶反饋的,,你想多了,你但凡用過(guò)國(guó)內(nèi)軟件,,哪個(gè)是用戶反饋就給你升級(jí)的,,你算老幾。即便是最先進(jìn)的大模型也不能直接根據(jù)用戶反饋進(jìn)行自我進(jìn)化,,模型的改進(jìn)和更新通常需要人工干預(yù),,大模型也必須程序員來(lái)編程改進(jìn)。
6 關(guān)于微調(diào)上面已經(jīng)闡述了,,專業(yè)領(lǐng)域的AI與微調(diào)無(wú)關(guān),,微調(diào)什么都不能解決,多看點(diǎn)相關(guān)論文,。
7再一次證明你不懂什么是大模型,,上面說(shuō)了,大模型就是個(gè)文字概率生成模型,,所以它沒(méi)有“學(xué)習(xí)”這種概念,。
8大模型的參數(shù)權(quán)重是指在深度學(xué)習(xí)或機(jī)器學(xué)習(xí)模型中,特別是神經(jīng)網(wǎng)絡(luò)里,,每個(gè)神經(jīng)元之間的連接強(qiáng)度,。這些權(quán)重是模型內(nèi)部的參數(shù),它們決定了輸入數(shù)據(jù)如何通過(guò)網(wǎng)絡(luò)的不同層被處理和轉(zhuǎn)換,,并最終影響輸出結(jié)果,。權(quán)重反映了每個(gè)輸入的重要性:如果權(quán)重接近零,那么該輸入對(duì)最終輸出的影響就很�,�,;如果權(quán)重很大(無(wú)論是正數(shù)還是負(fù)數(shù)),那么該輸入將對(duì)輸出產(chǎn)生較大的影響,。
9人類的意識(shí)都沒(méi)探討明白,,你探討什么大模型,都說(shuō)一萬(wàn)遍了,,現(xiàn)在生成式AI的架構(gòu)就是大型語(yǔ)言模型架構(gòu)LLM,,文字生成概率。它根本不理解世界,,它說(shuō)草是綠色的,,僅僅是人類給的數(shù)據(jù)中,草和綠色經(jīng)常性組合在一起,。就是權(quán)重高,,所以大模型也就跟著組合,。
|
|