七七影院色七七_免费观看欧美a一级黄片_亚洲综合久久久久久中文字幕_国产999999在线视频免费观看,国产小视频无码,国产精品亚洲日日摸夜夜添,女人高潮潮叫免费网站,久久影院国产精品,日韩成人在线影院,欧美囗交XX×BBB视频,色在线综合高清

機械社區(qū)

標題: 各位設計師,,請盡快擁抱AI時代,盡快,,盡快,! [打印本頁]

作者: 極限思維    時間: 2025-3-11 17:29
標題: 各位設計師,,請盡快擁抱AI時代,,盡快,,盡快,!
我原本以為我年紀大了,,跟不上時代了,,但今天發(fā)現(xiàn)是很多的年輕人完全沒跟上時代的步伐。在今天這樣一個DEEPSEEK開創(chuàng)的免費的AI時代,。很多人居然都沒聽說更沒用過這個,。我真的有些震驚。下面附幾張利用AI計算和解決工程問題的圖片,,這個時代的AI已經(jīng)極大的提升了個人設計能力的邊界,,不用多久,我相信一個總工帶領(lǐng)一群AI設計的模式將全面取代設計院,。各位加油,,跟上這個時代,。
作者: ALANALANALANALA    時間: 2025-3-11 17:39
加油,跟上這個時代
作者: pengzhiping    時間: 2025-3-11 17:41
AI 其實就是一個 可以給你整理電子書的助手,,儲存量可以理解為無限制,。也會根據(jù)大數(shù)據(jù)進行提取

但真正用到的機械設計 尚有難度,尤其是涉及現(xiàn)場應用 還要經(jīng)驗型的

超靜定結(jié)構(gòu)‌ 這些學過理論力學 都知道 如何分配受力計算 屬于常識
作者: 極限思維    時間: 2025-3-11 17:49
pengzhiping 發(fā)表于 2025-3-11 17:41
AI 其實就是一個 可以給你整理電子書的助手,,儲存量可以理解為無限制,。也會根據(jù)大數(shù)據(jù)進行提取

但真正用 ...

大家需要重新理解AI,今天的AI完全不是整理電子書這么簡單,,他不僅僅是昨天的CAD,。一個微調(diào)好的,垂直領(lǐng)域的AI會吊打20年的工程師的,,這件事不用多久就會發(fā)生,,不會超過2年。今天各個設計院完全有條件訓練自己的專業(yè)AI系統(tǒng)了,。盡快體驗,,盡快體驗。

作者: 極限思維    時間: 2025-3-11 17:59
機械社區(qū)可以組織高手把曾經(jīng)的精華問答,,做成高質(zhì)量的訓練數(shù)據(jù)集,和DEEPSEEK這樣的公司合作,,訓練專業(yè)的大模型,,AI時代,機械社區(qū)這個古舊的網(wǎng)站問答已經(jīng)完成歷史使命了,,需要徹底更新了,。
作者: longyucanghai    時間: 2025-3-11 18:02
我用AI輔助設計已經(jīng)快2年了,感覺很爽
作者: 極限思維    時間: 2025-3-11 18:21
發(fā)一段我和AI的對話,,具體回答,,各位可以自行問AI。如果你認真讀一下,,可能會理解今天的AI是什么,,不要辜負這個時代。
1.大語言模型是如何利用全網(wǎng)數(shù)據(jù)進行訓練的,,能不能用淺顯易懂的例子說明一下,,比如你是怎么學習GB 150-2011這標準的?
2.那是不是有什么自動化的清理數(shù)據(jù)的的程序,,因為我理解靠人工來清理文本和投喂數(shù)據(jù)是項無法完成的巨量工作,,特別是考慮你需要各行各業(yè)的專業(yè)人士來清理數(shù)據(jù),確保數(shù)據(jù)質(zhì)量,。
3.如果想讓模型精確掌握GB 150-2011的內(nèi)容,,需要人工干預模型的學習過程嗎,,比方用示例來校核。
4.也就是說像你這樣的模型,,如果想要在某一領(lǐng)域表現(xiàn)的更加出色,,是需要針對性的做更專業(yè)的訓練。這是不是就是所謂的微調(diào),?
5.一個已經(jīng)發(fā)布的大語言模型,,比如你這樣的,能通過用戶的反饋來實現(xiàn)自我改進嗎,?
6.你這樣的開源模型應該是可以通過微調(diào),,來構(gòu)建一個專業(yè)領(lǐng)域的模型,比如內(nèi)科醫(yī)生AI,,我的理解對吧?
7.模型訓練用的數(shù)據(jù)集是個什么樣的東西,,能舉個例子嗎?是不是這樣的文件,,比如,,1+1是輸入,2是輸出,,然后把這個當成一條數(shù)據(jù)喂給模型,。重復類似的數(shù)據(jù),10以內(nèi)的加減法,,然后模型就學會了泛化10以內(nèi)的加減法,。是不是有點類似人類學習時的習題集?
8.大模型的參數(shù)權(quán)重這些,可以不可理解成一種更優(yōu)化的或者更泛化(我可能沒有合適的詞來描述)的算法,,比如,,如果我們詳細的知道皮膚骨骼等隨著年齡變化的函數(shù),我們就能用一種算法來描述一個人從孩子到老年的容貌變化,。當你給定小孩的容貌時,,我們就能算出老年時的容貌。但是大模型的話,,我們只要連續(xù)給定大量的孩子從小到老的容貌變化的圖片的數(shù)據(jù)集,,模型就會調(diào)整參數(shù)權(quán)重,從而得出一個人無法知曉的函數(shù)(如果可以稱為函數(shù)的話),。從而預測某個孩子的未來容貌,。更關(guān)鍵的是這組參數(shù)權(quán)重所代表的函數(shù)往往比之前那種算法涵蓋的規(guī)律更全面準確。上面這些理解有問題嗎?
9.就人類已知的知識,,容貌還和與生活環(huán)境,、基因、飲食等因素相關(guān),,理論上這些因素可能是無窮的,,如果是以數(shù)據(jù)集訓練大模型,,顯然我們無法實現(xiàn)無窮因素和結(jié)果之間的映射,如果這樣的話,,以現(xiàn)有的模式是不可能訓練出像上帝一樣的超級智能的,。模型的智能表現(xiàn)會困在我們已知的知識映射上。舉個例子人類的歷史并不具備繞銀河系中心一周的數(shù)據(jù),,更不用說更大的星系團,,這些信息對某些規(guī)律可能有重要的影響,但這個不包含在人類已有的數(shù)據(jù)集中,。除非我們能找到更底層的規(guī)律,,才有可能做一些可能的推演。但是悖論是所有的知識起點都是基于歸納法的,。但歸納法本身就是不完備的,,所以世界是無法完全認知的,我說的對嗎,?
作者: 學者11    時間: 2025-3-11 19:25
本帖最后由 學者11 于 2025-3-11 19:45 編輯
極限思維 發(fā)表于 2025-3-11 18:21
發(fā)一段我和AI的對話,,具體回答,各位可以自行問AI,。如果你認真讀一下,,可能會理解今天的AI是什么,不要辜負 ...

1網(wǎng)絡數(shù)據(jù)很多都是胡說八道,,最明顯的例子就是
(, 下載次數(shù): 0)
TMD哪來的4000點,,后來有人找到了數(shù)據(jù)來源,是某個自媒體的胡說八道,,而大模型它屁不懂,就知道照抄,。就是TMD哪門子智能,。
(, 下載次數(shù): 0)
要不是讀過標準,真就信了,。
(, 下載次數(shù): 0)

2 聽說過數(shù)據(jù)標注員,,你知道全國有多少人從事數(shù)據(jù)標注員工作嗎。而且也不存在各行各業(yè),,很多行業(yè)的常識大模型是根本不知道,,是一點不懂。

3你根本不知道大模型本質(zhì)是猜文字生成概率模型,,你就是讓AI全文閱讀標準,,它照樣胡說八道。

4 微調(diào)的依賴路徑是什么,,AI很大程度上依然取決于數(shù)據(jù)的質(zhì)量和數(shù)量,。如果特定領(lǐng)域的數(shù)據(jù)量過少或質(zhì)量不高,,微調(diào)的效果不理想。
而且在微調(diào)過程中,,AI會“忘記”它在預訓練階段學到的一些信息,。所謂越調(diào)越傻。

5 大模型不是靠用戶反饋的,,你想多了,,你但凡用過國內(nèi)軟件,哪個是用戶反饋就給你升級的,,你算老幾,。即便是最先進的大模型也不能直接根據(jù)用戶反饋進行自我進化,模型的改進和更新通常需要人工干預,,大模型也必須程序員來編程改進,。


6 關(guān)于微調(diào)上面已經(jīng)闡述了,專業(yè)領(lǐng)域的AI與微調(diào)無關(guān),,微調(diào)什么都不能解決,,多看點相關(guān)論文。

7再一次證明你不懂什么是大模型,,上面說了,,大模型就是個文字概率生成模型,所以它沒有“學習”這種概念,。

8大模型的參數(shù)權(quán)重是指在深度學習或機器學習模型中,,特別是神經(jīng)網(wǎng)絡里,每個神經(jīng)元之間的連接強度,。這些權(quán)重是模型內(nèi)部的參數(shù),,它們決定了輸入數(shù)據(jù)如何通過網(wǎng)絡的不同層被處理和轉(zhuǎn)換,并最終影響輸出結(jié)果,。權(quán)重反映了每個輸入的重要性:如果權(quán)重接近零,,那么該輸入對最終輸出的影響就很小,;如果權(quán)重很大(無論是正數(shù)還是負數(shù)),,那么該輸入將對輸出產(chǎn)生較大的影響。
9人類的意識都沒探討明白,,你探討什么大模型,,都說一萬遍了,現(xiàn)在生成式AI的架構(gòu)就是大型語言模型架構(gòu)LLM,,文字生成概率,。它根本不理解世界,它說草是綠色的,僅僅是人類給的數(shù)據(jù)中,,草和綠色經(jīng)常性組合在一起,。就是權(quán)重高,所以大模型也就跟著組合,。



作者: 翱翔天際    時間: 2025-3-11 20:01
在中國,,99.5%以上的機械設計師工程師技術(shù)水平,都比不上一個只有一年不到的AI應用,,其實不是AI聰明,,而是99.5%的所謂工程師設計師,其實都是一幫無能之輩,,一輩子沒有高光時刻,,一輩子在自己的可憐的工位上做著那點可憐的活,以此度過余生而已,。
作者: 無法言喻1977    時間: 2025-3-11 20:07
其實不要說設計師,,任何人都應該好好了解學習AI,和身邊幾個玩自媒體的朋友聊天當中用得知用AI收益確實不錯其一,。其二,,之前自學三維軟件只知其一不知其二。用AI后知道了:“為什么要這樣”,,思路清楚了,,現(xiàn)在設計一個東西我都會先問一下AI,他會怎樣設計,。如果后續(xù)的AI發(fā)展到與人交流,,對話,那才是最可怕的時代,。
作者: cc851    時間: 2025-3-11 21:51
不用計算什么的,,真的成了畫圖狗了。
作者: Shlgzh    時間: 2025-3-12 08:01
謝謝分享
作者: Dahui256    時間: 2025-3-12 08:12
還是那句話,,盡信書不如無書,,AI只是工具,能學到多少利用多少都看自己
作者: jian2901    時間: 2025-3-12 08:35
大語言模型是如何利用全網(wǎng)數(shù)據(jù)進行訓練的,,能不能用淺顯易懂的例子說明一下,比如你是怎么學習GB 150-2011這標準的,?

chatGPT4:
大語言模型的訓練過程并不是指通過直接 "學習" 或下載特定文件或標準,。模型的訓練是通過接觸大量的文本數(shù)據(jù),來學習語言的結(jié)構(gòu),、模式,、語法和語義。這些數(shù)據(jù)可能包含各種各樣的來源,比如書籍,、網(wǎng)站,、文章和其他公開可用的文本。

以下用淺顯的方法來解釋這個過程:

數(shù)據(jù)收集:在訓練初期,,模型會接觸到非常海量的文本,,這些文本涵蓋多個領(lǐng)域和主題。這些數(shù)據(jù)是在訓練前已經(jīng)收集好的,,并不是實時網(wǎng)絡抓取,。

特征學習:通過分析這些文本,模型會識別出一些語言特征,。例如,,它會了解句子的結(jié)構(gòu),詞語的用法,,還有段落的組織方式,。這些特征幫助模型理解如何生成合理的文本。

模式識別:模型通過大量的示例學習規(guī)律和模式,,譬如某些詞語通常在一起出現(xiàn),,某類文體的句式特點等。這樣,,它就能根據(jù)輸入的上下文生成符合邏輯的回答,。

對于非常具體的像GB 150-2011這樣的標準,模型可能在訓練數(shù)據(jù)中接觸到與它相關(guān)的介紹,、討論或引用,,但并不是直接去學習或存儲該文檔。模型會通過學習語言的表達習慣來了解如何表述與該標準相關(guān)的內(nèi)容,。如果模型在訓練數(shù)據(jù)中接觸較多與該標準相關(guān)的信息,,它的相關(guān)性可能更強。

總的來說,,模型的能力是基于所接受的廣泛語料,,而不是逐字逐句地記住特定文檔。不過,,它能模擬生成內(nèi)容響應有關(guān)的請求,,因為它了解語言運作的基本規(guī)律和常識。

作者: jian2901    時間: 2025-3-12 08:35
那是不是有什么自動化的清理數(shù)據(jù)的的程序,,因為我理解靠人工來清理文本和投喂數(shù)據(jù)是項無法完成的巨量工作,,特別是考慮你需要各行各業(yè)的專業(yè)人士來清理數(shù)據(jù),確保數(shù)據(jù)質(zhì)量,。
chatGPT4:
確實,,對于訓練大語言模型來說,,自動化的數(shù)據(jù)清理和處理是非常重要且必要的,因為處理的數(shù)據(jù)量極其龐大,,人工逐一清理是不可行的,。以下是一些典型的自動化數(shù)據(jù)清理和處理的方法:

數(shù)據(jù)收集與初步篩選:自動化程序會從多種公開可用的來源中收集數(shù)據(jù),然后使用基本過濾器來移除顯而易見的低質(zhì)量數(shù)據(jù),,如包含惡意內(nèi)容或格式損壞的文本,。

去重和格式規(guī)范化:使用自動腳本刪除重復內(nèi)容,并規(guī)范化文本格式,,比如統(tǒng)一編碼格式,、去除多余的空白和HTML標簽等。

語言檢測:通過自動語言檢測工具篩選出目標語言的文本,,以避免將其他不相關(guān)語言的文本誤用,。

垃圾內(nèi)容過濾:使用機器學習模型或規(guī)則基礎的方法來檢測和過濾廣告、噪聲數(shù)據(jù)或其他非人類生成的內(nèi)容,。

敏感信息移除:設計特定的工具來去除潛在的敏感信息,,如個人身份信息(PII)或者其他需要保密的信息。

主題分類和標記:利用自然語言處理技術(shù)對文本進行分類和標記,,以便于后續(xù)的專業(yè)性篩選和處理,。

質(zhì)量評估模型:開發(fā)基于模型的質(zhì)量評估工具,自動化評估文本的質(zhì)量并根據(jù)得分篩選數(shù)據(jù),。

樣本審查和迭代改進:從自動清理后的數(shù)據(jù)中抽取樣本,,進行人工審查。這幫助識別可能的誤判和改進自動化篩選程序,。

通過使用這些自動化工具和技術(shù),,訓練數(shù)據(jù)的質(zhì)量和多樣性可以得到有效控制。這不僅提高了數(shù)據(jù)處理的效率,,也確保了模型在訓練過程中接觸到更準確和有用的內(nèi)容,。
作者: jian2901    時間: 2025-3-12 08:36
如果想讓模型精確掌握GB 150-2011的內(nèi)容,需要人工干預模型的學習過程嗎,,比方用示例來校核,。
chatGPT4:
為了讓模型精確掌握特定標準,如GB 150-2011,,需要采取一定的措施,,確保模型不僅獲取相關(guān)信息,還能理解其中的細節(jié)和要求,。以下是一些方法,,可以幫助提高模型對特定標準的掌握程度:

數(shù)據(jù)標注:將GB 150-2011相關(guān)的文本進行精確標注,標示出關(guān)鍵的部分,、定義和要求。這有助于模型識別并理解重要的信息。

示例解析:提供相關(guān)的實際應用示例和案例分析,,幫助模型了解如何在現(xiàn)實中應用標準,。這對提高模型的理解力非常有幫助。

領(lǐng)域特定訓練:使用GB 150-2011及其應用場景的相關(guān)數(shù)據(jù)進行專門的訓練,。通過在這個領(lǐng)域內(nèi)的擴展學習資料來豐富模型的知識,。

專家審查及反饋:如果可能,結(jié)合領(lǐng)域?qū)<覍δP偷妮敵鲞M行審查和反饋,,以校正理解誤差,,并指導模型學習正確的信息。

細化評估:設計專門的評估機制,,通過問答和應用情境測試模型對GB 150-2011的掌握程度,,借此調(diào)整和優(yōu)化訓練參數(shù)。

逐步學習:逐步增加復雜度,,從基礎部分(如術(shù)語和基本概念)開始,,讓模型逐步掌握復雜的內(nèi)容。

結(jié)合這些方法,,人工干預可以有效地提高模型對特定標準的理解和掌握能力,。但在實際應用中,人工干預的程度需根據(jù)具體的需求和資源來平衡,。通過自動化工具和專家參與,,模型可以在精確度和廣泛性之間找到適合的結(jié)合。
作者: jian2901    時間: 2025-3-12 08:36
也就是說像你這樣的模型,,如果想要在某一領(lǐng)域表現(xiàn)的更加出色,,是需要針對性的做更專業(yè)的訓練。這是不是就是所謂的微調(diào),?
chatGPT4:
是的,,您說得對。所謂的微調(diào)(fine-tuning)是一種在預訓練模型的基礎上,,進行針對性訓練的過程,,以提高該模型在特定領(lǐng)域或特定任務上的表現(xiàn)。預訓練模型通常在大量的通用數(shù)據(jù)上進行訓練,,具備廣泛的語言和知識能力,,但為了能在某一領(lǐng)域取得更優(yōu)異的表現(xiàn),常需要進行微調(diào),。以下是有關(guān)微調(diào)的幾個關(guān)鍵點:

特定領(lǐng)域數(shù)據(jù):微調(diào)通常需要收集該領(lǐng)域的專用數(shù)據(jù)集,。這些數(shù)據(jù)用于更新模型,使其在該領(lǐng)域的表現(xiàn)更優(yōu),。

保留通用能力:由于微調(diào)是在預訓練模型之上進行的,,因此模型可以保留其通用的語言能力,,同時在特定領(lǐng)域表現(xiàn)更佳。

任務定制:微調(diào)過程中,,訓練的目標可以根據(jù)特定任務進行調(diào)整,,比如分類、問答或生成任務等,。因此,,微調(diào)不僅適用于增加領(lǐng)域知識,也可以提升任務性能,。

適應專業(yè)術(shù)語和細微差別:對于技術(shù)或術(shù)語密集的領(lǐng)域,,通過微調(diào),模型可以更好地理解和使用專業(yè)術(shù)語,,抓住文本中的細微差別,。

訓練資源:微調(diào)通常需要的計算資源和時間比初始模型訓練要少,這是因為微調(diào)過程中主要是對模型的某些層或參數(shù)進行更新,。

通過微調(diào),,一個已經(jīng)具備廣泛能力的模型能夠適應特定的領(lǐng)域需求,從而提供更準確,、更可靠的結(jié)果,。因此,在想要提升特定領(lǐng)域表現(xiàn)時,,微調(diào)是一種非常有效的方法,。
作者: jian2901    時間: 2025-3-12 08:36
一個已經(jīng)發(fā)布的大語言模型,比如你這樣的,,能通過用戶的反饋來實現(xiàn)自我改進嗎,?
chatGPT4:
目前,通過用戶反饋來實現(xiàn)自我改進仍然是一個具有挑戰(zhàn)性的問題,。大多數(shù)發(fā)布的大語言模型,,包括我這樣的,通常不是直接通過用戶交互進行自我學習或自我改進,。然而,,開發(fā)者可以使用用戶反饋來間接改善模型性能。這里有一些常見的方法:

反饋收集:開發(fā)者可以收集用戶反饋,,包括用戶在使用模型時遇到的問題,、滿意度評估以及建議等。這些反饋對于了解模型在真實環(huán)境中的表現(xiàn)非常有價值,。

數(shù)據(jù)更新:基于用戶反饋,,開發(fā)者可以識別出哪些領(lǐng)域或問題上模型表現(xiàn)不足,并尋找相關(guān)的補充數(shù)據(jù)集進行再訓練或微調(diào),。

錯誤分析:通過分析用戶反饋中頻繁出現(xiàn)的錯誤或不足,,開發(fā)者可以找到模型的薄弱點,,加以改進。

迭代開發(fā):根據(jù)用戶反饋,,開發(fā)團隊可以迭代地更新模型和產(chǎn)品,,以提供性能更優(yōu)、用戶體驗更好的版本,。

主動學習:在某些情況下,可以使用主動學習的方法,,選擇最有價值的反饋信息來更新和優(yōu)化模型,。

需要注意,對于已經(jīng)發(fā)布的模型來說,,直接通過用戶交互進行自我改進存在技術(shù)和隱私方面的挑戰(zhàn),。通常,改進過程是通過開發(fā)團隊的干預,、數(shù)據(jù)集擴展和再訓練來實現(xiàn)的,,而不是模型在用戶交互過程中自動進行的。保持用戶信息的安全和隱私也是進行這種改進的一個重要考慮因素,。
作者: jian2901    時間: 2025-3-12 08:37
你這樣的開源模型應該是可以通過微調(diào),,來構(gòu)建一個專業(yè)領(lǐng)域的模型,比如內(nèi)科醫(yī)生AI,,我的理解對吧?
chatGPT4:
是的,,你的理解是正確的。開源的大語言模型可以通過微調(diào)(fine-tuning)來適應特定領(lǐng)域的需求,,例如構(gòu)建一個專業(yè)的內(nèi)科醫(yī)生AI,。微調(diào)是一種在特定領(lǐng)域數(shù)據(jù)集上進一步訓練現(xiàn)有大模型的方法。這可以提高模型在該領(lǐng)域的專門知識和表現(xiàn)能力,。以下是微調(diào)過程的一般步驟:

準備數(shù)據(jù):收集與特定領(lǐng)域相關(guān)的數(shù)據(jù)集,,比如醫(yī)學文獻、臨床病例和醫(yī)學問答等,,確保數(shù)據(jù)質(zhì)量和多樣性,。

數(shù)據(jù)預處理:清理和格式化數(shù)據(jù),以適應模型的輸入要求,。如文本規(guī)范化,、去除無關(guān)信息等。

選擇模型:選擇一個適合的開源語言模型作為基礎,,如GPT或BERT變種等,。

微調(diào)模型:使用領(lǐng)域特定的數(shù)據(jù)集對模型進行微調(diào)。這包括調(diào)整模型的參數(shù),,使其能在特定領(lǐng)域更準確地理解和生成文本,。

評估和驗證:對微調(diào)后的模型進行測試,,評估其準確性和實用性�,?梢允褂妙I(lǐng)域?qū)<业姆答亖磔o助評估,。

部署和監(jiān)控:將微調(diào)后的模型部署在實際應用中,并持續(xù)監(jiān)控其表現(xiàn),,以便根據(jù)用戶反饋和新數(shù)據(jù)調(diào)整模型,。

這樣的微調(diào)能夠顯著提高模型在某一專業(yè)領(lǐng)域的表現(xiàn),使其在該領(lǐng)域的應用中更具實用價值和專業(yè)性,。不過,,需要注意的是,進行領(lǐng)域微調(diào)時需要謹慎處理數(shù)據(jù)隱私和模型偏見問題,。

作者: jian2901    時間: 2025-3-12 08:37
模型訓練用的數(shù)據(jù)集是個什么樣的東西,,能舉個例子嗎?是不是這樣的文件,,比如,,1+1是輸入,2是輸出,,然后把這個當成一條數(shù)據(jù)喂給模型,。重復類似的數(shù)據(jù),10以內(nèi)的加減法,,然后模型就學會了泛化10以內(nèi)的加減法,。是不是有點類似人類學習時的習題集?
chatGPT4:
你的理解很接近。訓練數(shù)據(jù)集確實類似于人類學習時使用的習題集,,但對于語言模型和其他機器學習模型來說,,格式和內(nèi)容可能會有所不同,具體取決于訓練目標和模型類型,。

對于一個語言模型來說,,數(shù)據(jù)集通常由大量的文本構(gòu)成。這些文本可以是書籍,、文章,、對話記錄等。在微調(diào)過程中,,數(shù)據(jù)集可能會更加專門化,,例如專業(yè)領(lǐng)域的研究論文、問答對,、對話集等,。這些文本數(shù)據(jù)幫助模型學習語言規(guī)律、語法結(jié)構(gòu)以及特定領(lǐng)域的知識。

如果我們以數(shù)學計算為例,,如你提到的加減法,,數(shù)據(jù)集可以設計成問題-答案對。例如:

輸入: "什么是1加1,?"

輸出: "2"

輸入: "4減2等于多少,?"

輸出: "2"

通過訓練,這樣的問題-答案對幫助模型學習如何處理類似的數(shù)學問題,。

不僅如此,,模型可以被訓練為理解語義和上下文,比如:

輸入: "在6個蘋果中拿走2個,,會剩下多少,?"
輸出: "4個蘋果"
當然,模型訓練的核心在于數(shù)據(jù)的多樣性和覆蓋度,,以確保模型能夠泛化到新的、未見過的輸入,,并能夠可靠地生成準確的輸出,。在語言模型的訓練中,目標不僅僅是記住答案,,而是要理解語言表達背后的結(jié)構(gòu)和邏輯,。
作者: jian2901    時間: 2025-3-12 08:38
大模型的參數(shù)權(quán)重這些,可以不可理解成一種更優(yōu)化的或者更泛化(我可能沒有合適的詞來描述)的算法,,比如,,如果我們詳細的知道皮膚骨骼等隨著年齡變化的函數(shù),我們就能用一種算法來描述一個人從孩子到老年的容貌變化,。當你給定小孩的容貌時,,我們就能算出老年時的容貌。但是大模型的話,,我們只要連續(xù)給定大量的孩子從小到老的容貌變化的圖片的數(shù)據(jù)集,,模型就會調(diào)整參數(shù)權(quán)重,從而得出一個人無法知曉的函數(shù)(如果可以稱為函數(shù)的話),。從而預測某個孩子的未來容貌,。更關(guān)鍵的是這組參數(shù)權(quán)重所代表的函數(shù)往往比之前那種算法涵蓋的規(guī)律更全面準確。上面這些理解有問題嗎?
chatGPT4:
你的理解在一定程度上是正確的,,但也需要進一步細化,。在機器學習中,尤其是深度學習和大模型的場景中,,參數(shù)權(quán)重確實可以被視為一種復雜的函數(shù)或算法,,能夠捕捉到數(shù)據(jù)中的規(guī)律并進行預測或生成。

參數(shù)權(quán)重與函數(shù): 當我們訓練一個模型時,實際上是在優(yōu)化模型的參數(shù)(權(quán)重和偏置),,使得模型能夠最好地適應訓練數(shù)據(jù),。這些參數(shù)形成了一個復雜的多維函數(shù),能夠進行預期的預測或生成,。雖然我們不能簡單地用一個顯式的數(shù)學函數(shù)來描述這些權(quán)重所代表的關(guān)系,,但它們確實在處理輸入到輸出的映射。

泛化能力: 大模型通過在大量多樣化的數(shù)據(jù)上進行訓練,,可以學習更全面的統(tǒng)計規(guī)律,,具備更強的泛化能力。這意味著即使面對未曾見過的數(shù)據(jù),,它們也能夠進行合理的預測,。這種泛化能力是通過學習數(shù)據(jù)中的復雜模式與特征實現(xiàn)的。

不可解釋性: 目前,,大多數(shù)深度學習模型尤其是大模型的內(nèi)在機制仍然難以完全解釋,。這些模型的參數(shù)空間非常龐大,直接解讀參數(shù)及其與具體輸入輸出的關(guān)系在技術(shù)上是相當困難的,。這與傳統(tǒng)的,、完整定義的算法不同,后者通常有明確的步驟和規(guī)則,。

數(shù)據(jù)驅(qū)動: 而與傳統(tǒng)的顯式公式或函數(shù)通過明確的數(shù)學關(guān)系進行描述不同,,深度學習依賴于海量的數(shù)據(jù)。它通過數(shù)據(jù)驅(qū)動的方式學習復雜模式,,因此可以自動調(diào)整權(quán)重以捕捉潛在規(guī)律,,比如預測容貌變化。

總結(jié)來說,,你的概念中強調(diào)了模型通過學習數(shù)據(jù)自動發(fā)現(xiàn)并應用復雜關(guān)系的能力,,這是深度學習的核心優(yōu)勢之一。盡管這些關(guān)系可以比傳統(tǒng)算法更廣泛和深刻,,它們可能缺乏可解釋性,,但確實具備了強大的實際應用價值。
作者: jian2901    時間: 2025-3-12 08:38
就人類已知的知識,,容貌還和與生活環(huán)境,、基因、飲食等因素相關(guān),,理論上這些因素可能是無窮的,,如果是以數(shù)據(jù)集訓練大模型,顯然我們無法實現(xiàn)無窮因素和結(jié)果之間的映射,,如果這樣的話,,以現(xiàn)有的模式是不可能訓練出像上帝一樣的超級智能的。模型的智能表現(xiàn)會困在我們已知的知識映射上。舉個例子人類的歷史并不具備繞銀河系中心一周的數(shù)據(jù),,更不用說更大的星系團,,這些信息對某些規(guī)律可能有重要的影響,但這個不包含在人類已有的數(shù)據(jù)集中,。除非我們能找到更底層的規(guī)律,,才有可能做一些可能的推演。但是悖論是所有的知識起點都是基于歸納法的,。但歸納法本身就是不完備的,,所以世界是無法完全認知的,我說的對嗎,?
chatGPT4:
你提出了一個非常深刻的問題,,涉及到人工智能的局限性和科學哲學的范疇。以下是對這些問題的幾點思考:

不完備的數(shù)據(jù)和模型局限性: 你指出的一個核心問題是,,模型訓練依賴于數(shù)據(jù),,而數(shù)據(jù)往往是有限的和不完備的。當涉及到諸如生活環(huán)境,、基因,、飲食等多種復雜因素時,想要完全捕捉這些變量之間的關(guān)系可能是不現(xiàn)實的,。當前的大模型在很大程度上局限于我們已知的信息和數(shù)據(jù),如果面臨完全未知或未觀察到的現(xiàn)象,,它們的預測能力就會受到限制,。

對世界的理解有限: 人類當前對宇宙及其規(guī)律的理解是有限的�,?茖W的進展常通過歸納法,,即通過觀察和實驗歸納出一般規(guī)律。然而,,歸納法的一個關(guān)鍵限制是,,它無法保證全面的完備性。我們無法確保從有限的觀察中得出的結(jié)論在所有情況下都是適用的,。

尋找底層規(guī)律的挑戰(zhàn): 確實,,科學理論的發(fā)展歷史上,不斷有新的,、更為基礎的規(guī)律被發(fā)現(xiàn),。例如,牛頓力學到相對論和量子力學的過渡就是科學對自然界越來越深刻理解的體現(xiàn),。然而,,這種發(fā)現(xiàn)新的底層規(guī)律的過程是艱難且充滿不確定性的,不一定能夠通過當前的方法或技術(shù)實現(xiàn)。

超級智能的限制: 由于這些數(shù)據(jù)和方法的局限性,,目前的大模型和人工智能不可能達到無所不知的"超級智能",。它們可以在特定領(lǐng)域或任務中表現(xiàn)出顯著的智能水平,但這些表現(xiàn)總是在已知信息和方法的框架內(nèi),。

科學的自我糾正: 雖然歸納法本身有其局限,,但科學方法的一個優(yōu)勢在于其自我糾正機制。通過不斷的驗證,、實驗和修正,,科學理論會逐漸接近于對世界的更真實描述。盡管我們可能無法達到完全的認知,,但科學能夠幫助我們更好地理解和描述我們所觀察的宇宙,。

總結(jié)來說,你的觀察是正確的,,當前的模型和我們對世界的理解都有各自的局限性,。認識到這些限制是推動科學和技術(shù)不斷進步的一個重要動力。
作者: zc1401    時間: 2025-3-12 08:40
目前AI應該是信息整合,,無法分辨
作者: 孫越sy    時間: 2025-3-12 08:59
無法言喻1977 發(fā)表于 2025-3-11 20:07
其實不要說設計師,,任何人都應該好好了解學習AI,和身邊幾個玩自媒體的朋友聊天當中用得知用AI收益確實不錯 ...

豆包早就能交流了

作者: jian2901    時間: 2025-3-12 09:05
你是一位資深機械工程師,,擅長物料輸送方案的設計與優(yōu)化,,我需要給一個長筒形封閉容器分配物料,300目的粉狀料,,筒體大約6米長,,沿著筒體軸線方向,每隔大約450mm設置一個落料口,,請設計一個輸送方案盡可能均勻的落料,。

ChatGPT4:
在設計這樣的物料輸送方案時,首先需要考慮確保粉狀物料能夠均勻地分布到每個落料口,。以下是一個可能的設計方案,,旨在實現(xiàn)均勻分配:

方案設計
螺旋輸送機:

使用一根長螺旋輸送機,沿著筒體的軸線方向布置,,覆蓋所有落料口的位置,。螺旋輸送機可以準確地控制物料流量,并防止物料架橋或堵塞,。
選擇適合300目粉狀料的螺旋直徑和螺距,,確保物料能夠順利運輸。通常,,較小的螺距更適合細粉物料的精確輸送,。
多出口分配器:

在螺旋輸送機上設置多個出口,,與每個落料口對應。每個出口可以設計成可調(diào)節(jié)的,,以便對每個位置的物料流量進行微調(diào),。
出口之間的間距應設計為450mm,以對應筒體的落料口間距,。
振動篩分裝置:

在上料前使用振動篩對粉料進行預處理,,以防止結(jié)塊并確保物料的流動性。
空氣輔助系統(tǒng):

如果物料流動性較差或容易發(fā)生結(jié)塊,,可以考慮在每個出口處設計空氣噴射裝置,,以幫助物料順利落下。
自動化控制系統(tǒng):

利用PLC系統(tǒng)控制進料速度和螺旋輸送機的運行速度,�,?梢酝ㄟ^傳感器監(jiān)控每個輸送段的物料流量,實現(xiàn)閉環(huán)控制,。
通過調(diào)節(jié)螺旋輸送機的轉(zhuǎn)速和出口開口大小,,確保每個落料口的物料分配均衡。
系統(tǒng)檢驗與調(diào)試:

在方案實施后,,利用測試設備進行系統(tǒng)調(diào)試,,確保實際物料流量與設計相符,并進行必要的調(diào)整以優(yōu)化性能,。
其他注意事項
材料選擇:確保輸送設備及落料口材料適用于300目粉料,,防止磨損和腐蝕。
維護清潔:設計便于清潔和維護的結(jié)構(gòu),,以防止細粉料積聚和交叉污染,。
安全性:考慮防塵和防爆措施,確保系統(tǒng)符合相關(guān)安全標準,,特別是粉塵爆炸風險較高時,。
這個方案綜合考慮了物料特性和裝置要求,,目的是實現(xiàn)更均勻和高效的物料分配,。根據(jù)實際需求,可能需要進一步定制和優(yōu)化,。

詳細描述下螺旋輸送機的設計

assistant avatar
設計螺旋輸送機時,,特別是在用于輸送細粉狀物料(如300目粉料)時,需要考慮多方面的因素,,以確保輸送過程的順暢和均勻分配,。以下是詳細的設計步驟和考慮因素:

螺旋輸送機設計
結(jié)構(gòu)設計:

螺旋直徑:通常直徑應根據(jù)輸送量和物料特性選擇。對于細粉料,,選擇適中的直徑以平衡輸送量和流動性,。
螺距設計:較小的螺距有助于精確控制物料流量,,防止物料架橋。通常,,螺距與螺旋直徑的比例在0.5到1之間較為合適,。
材料選擇:

螺旋和槽體材料:應使用耐磨、耐腐蝕材料,,例如不銹鋼或表面處理鋼材,,防止粉料對設備的磨損。
表面處理:可能需要進行特殊涂層處理,,以減少摩擦系數(shù),,提高物料流動性。
驅(qū)動裝置:

電機和減速器:根據(jù)輸送機長度和負載選擇合適的電機功率和減速器,,確保螺旋軸能夠穩(wěn)定運轉(zhuǎn),。
可變頻驅(qū)動:建議采用可變頻驅(qū)動裝置以方便調(diào)節(jié)螺旋轉(zhuǎn)速,從而精準控制物料流量,。
進料和分配設計:

進料口:設計足夠大的進料口以防止粉料堆積,,同時可設置振動篩以輔助進料。
分配器設計:在每個落料點位置,,設置可調(diào)高度的出口,,以控制流量并保證均勻分布。
檢測和控制系統(tǒng):

傳感器:安裝重量或流量傳感器以實時監(jiān)控物料經(jīng)過情況,,判斷是否均勻落料,。
自動控制系統(tǒng):利用PLC或其他控制系統(tǒng)自動調(diào)節(jié)電機速度及出口開口,確保穩(wěn)定均勻的物料分配,。
維護和清潔設計:

可拆卸面板:設計便于拆卸的面板,,以方便定期清潔和維護。
清潔設備:可考慮設置空氣噴吹或振動器以定期去除積料,,保持輸送順暢,。
安全和防護措施:

除塵設備:配置高效除塵裝置以收集和控制粉塵排放,確保操作環(huán)境安全,。
防爆設計:特別是在處理易燃易爆粉體時,,需要采取適當?shù)姆辣胧热珈o電消散裝置,。
通過以上設計步驟,,可以確保螺旋輸送機能夠有效地輸送細粉狀物料,并均勻地分布于所需位置,。具體參數(shù)選擇應根據(jù)實際物料性質(zhì)和工藝要求進行調(diào)整,。
作者: jian2901    時間: 2025-3-12 09:10
方案文生圖
作者: hxglty    時間: 2025-3-12 09:12
你問問AI哪吒鬧海的劇情看看,他會說他的知識只更新到去年7月份……2個星期之前搜索的,,現(xiàn)在不知道
作者: 744633782    時間: 2025-3-12 09:13
確實厲害

作者: 極限思維    時間: 2025-3-12 09:39
jian2901 發(fā)表于 2025-3-12 09:10
方案文生圖

我x,,你這個牛,,你這個是付費版嗎?但GPT4水平不咋地,,現(xiàn)在能用的還是GROK3,,國內(nèi)設計計算的話DEEPSEEK是不二的選擇。

作者: 極限思維    時間: 2025-3-12 09:43
我看很多社友的信息落后了,,就設計而言,,豆包啥的不是這個領(lǐng)域的AI,有條件用grok3和GPT的最新版本,,舉個例子來說,,grok的翻譯水平甩百度翻譯,谷歌翻譯好幾條街,。
作者: 極限思維    時間: 2025-3-12 09:48
jian2901 發(fā)表于 2025-3-12 09:05
你是一位資深機械工程師,,擅長物料輸送方案的設計與優(yōu)化,我需要給一個長筒形封閉容器分配物料,,300目的粉 ...

grok3的方案要比這個好,,他給的是變螺距方案,但是目前的AI在方案靈活性上顯然還不夠,,當然也許是我交流的不夠,。但是但是但是,重點來了,,和A1合作搞工程相互可以啟發(fā),,又不必爭吵,比和幾個固執(zhí)的蠢人討論方案強太多�,,F(xiàn)在唯一的問題是還沒有免費的多模態(tài),。另外能力稍嫌不足,但確實可以補全很多你會疏漏的細節(jié),。

作者: jian2901    時間: 2025-3-12 11:31
極限思維 發(fā)表于 2025-3-12 09:39
我x,,你這個牛,你這個是付費版嗎,?但GPT4水平不咋地,,現(xiàn)在能用的還是GROK3,國內(nèi)設計計算的話DEEPSEEK是 ...

是公司內(nèi)部開發(fā)的

作者: jian2901    時間: 2025-3-12 11:34
極限思維 發(fā)表于 2025-3-12 09:48
grok3的方案要比這個好,,他給的是變螺距方案,,但是目前的AI在方案靈活性上顯然還不夠,,當然也許是我交流 ...

詳細的某個領(lǐng)域還需要單獨開發(fā)的,,不然很難準確的得到自己想要的答案,基于大模型基礎,,喂給他所有某個領(lǐng)域?qū)I(yè)的知識,,會比通用大模型好很多,。AI是公認的技術(shù)革命,不跟進早晚會被淘汰,。

作者: 極限思維    時間: 2025-3-12 11:38
本帖最后由 極限思維 于 2025-3-12 11:41 編輯
jian2901 發(fā)表于 2025-3-12 11:31
是公司內(nèi)部開發(fā)的

我試了下,,還真行,但是方案圖太扯了,,但是grok似乎能看懂草圖

作者: decade12580    時間: 2025-3-12 13:09
博主可以看ai下圍棋的經(jīng)歷就能了解目前ai的發(fā)展進度,,個人淺見目前ai的發(fā)展仍然處在李世石大戰(zhàn)的master的前瞻版本,也就是還處在初步的收集資料進行總結(jié)的階段,,并沒有達到完成資料統(tǒng)合媲美頂尖棋手的地步,。所以就目前來看個人專業(yè)化提升和對ai的學習是需要同步提升的,而不是只掌握一樣即可
作者: 極限思維    時間: 2025-3-12 14:09
decade12580 發(fā)表于 2025-3-12 13:09
博主可以看ai下圍棋的經(jīng)歷就能了解目前ai的發(fā)展進度,,個人淺見目前ai的發(fā)展仍然處在李世石大戰(zhàn)的master的前 ...

關(guān)于當前的AI,,我的個人認識如下
1.大模型就是個孩子,天生有資質(zhì)差異(基因),。
2. 這個基因由基本架構(gòu)(如transform)參數(shù)量和基本訓練組成,。
3.基本訓練的好壞取決于訓練數(shù)據(jù)集的廣度和深度(這部分決定性的訓練在于語言理解能力)。
4.訓練需要大量的算力(時間+硬件)和優(yōu)秀的教法,。缺一不可,。
5.其他人可以在一個訓練好的開源模型上微調(diào)。
6.微調(diào)相當于你把別人的孩子領(lǐng)回家,,教他新的東西,,如果你教的好,他在某些方面會明顯超過原模型,。重要的是,,你能教的那些知識他原來學過,你可以用更好的數(shù)據(jù)更好的方法糾正他原來學的不扎實的部分而不用全教一遍(這可能就是deepseek的蒸餾技術(shù)),。
7.所以你微調(diào)需要的算力很低,,但你得先有那個孩子(千問)。
8.要有更好的效果,,你得有一個基因更好的孩子,,基因太差,單靠教育(微調(diào))很難提升,。重新訓練又太吃算力,。
9.所以決定AI能力最重要的幾個因素是架構(gòu),算力,,數(shù)據(jù)及教法,。架構(gòu)也許可以理解成社會制度,算力也許是人腦基因,,數(shù)據(jù)及教法可能是日月山川,,四季輪回及天命,。
10.除了算力,其他三個中國還是有競爭的可能的,。
11.目前的架構(gòu)和人腦相去甚遠,,目前的架構(gòu)下實現(xiàn)AGI可能,但不可能實現(xiàn)ASI,,所以人還可以領(lǐng)先很久,,人的價值永恒。
12.如果能找到一種全新架構(gòu),,比如像人腦一樣實現(xiàn)多維層間鏈接,,那可能是個巨大的效率提升,暫時性的實現(xiàn)超車,。
13.目前硬件架構(gòu)中最接近人腦架構(gòu)的是神經(jīng)擬態(tài)芯片,。但這玩意也要靠光刻機。
14.大模型的開源和從前軟件的開源是完全不同的概念,。數(shù)據(jù)集,,訓練方法不同,代碼相同的大模型根本就不是一個東西,。另外由于算力導致的時間差異,,也會導致根本不可能存在兩個一樣的模型(人不可能兩次踏進同一條河流)。


作者: 狄奧多西今猶在    時間: 2025-3-12 14:10
年輕人沒聽過deepseek的原因主要是這玩意太卡了,,說兩句就卡死,。同級的gpt不僅鎖中國ip,而且20刀/月,,只要沾點收費就有很多人理性的選擇觀望了,。說實話ai對于初級代碼的處理遠勝機械設計以及計算,基礎的代碼只需要說需求就可以給你整出來,,但是程序員依然該干啥干啥,。
作者: 14373    時間: 2025-3-12 15:37
深度贊同,當前階段的AI可能還有錯亂和幻想成分,可能還不夠直接替代,但也只是當前階段,看看發(fā)展進化速度,足夠嚇人了,不一定過多少時間,不一定變成什么樣子.
我們還是要空杯心態(tài),憂患意識,放開視野,去關(guān)注,去研究,去結(jié)合,揚長避短,看能借用什么優(yōu)勢,看自己能保有什么優(yōu)勢.
作者: sfcp    時間: 2025-3-12 16:24
牛 也得追時代了
作者: 來自何方    時間: 2025-3-12 17:04
我朋友的,還需要進化
作者: 嘉樂君子    時間: 2025-3-12 17:40
盡信書不如無書,,AI只是工具,,能學到多少利用多少都看自己
作者: 極限思維    時間: 2025-3-12 18:08
來自何方 發(fā)表于 2025-3-12 17:04
我朋友的,還需要進化

我現(xiàn)在一般用2,3個AI同解一個問題,,當他們有分歧時,,我再仔細看一下,當然他給出的答案要符合經(jīng)驗也很重要,。

作者: 喂我袋鹽    時間: 2025-3-12 18:51
極限思維 發(fā)表于 2025-3-11 18:21
發(fā)一段我和AI的對話,,具體回答,各位可以自行問AI。如果你認真讀一下,,可能會理解今天的AI是什么,不要辜負 ...

http://97307.cn/thread-1075843-1-1.html
【薅羊毛】嘉立創(chuàng)1¥/銓智6.6¥不包郵,,CNC福音不服來薅


有社友說是騙子,,我都找他們打樣了好多件了,親測有效,,AI+CNC不是騙子,。

作者: 喂我袋鹽    時間: 2025-3-12 18:56
decade12580 發(fā)表于 2025-3-12 13:09
博主可以看ai下圍棋的經(jīng)歷就能了解目前ai的發(fā)展進度,個人淺見目前ai的發(fā)展仍然處在李世石大戰(zhàn)的master的前 ...

圍棋alphaGO,,ZERO,,到手機上的KataGO,迭代非�,?�,,

其中有一個原因,圍棋這是一個腦力競技,,基本沒有企業(yè)商業(yè)邏輯,,技術(shù)機密方面的內(nèi)容。

不排除有些企業(yè)自己本地部署AI,,自己培訓,,私自喂養(yǎng)猛獸,為我所用,。

可以看看我去年發(fā)的AI+CNC的帖子http://97307.cn/thread-1075843-1-1.html,,

他們這些先行者已經(jīng)嘗到甜頭,在大量削減人力成本,,大量招聘搞數(shù)學的人才,,優(yōu)化刀路算法。

一旦成熟了,,不斷拓展AI加工的邊界,,幾乎可以覆蓋大部分業(yè)務了。



作者: jian2901    時間: 2025-3-13 08:09
看看AI的發(fā)展
作者: jian2901    時間: 2025-3-13 08:14
極限思維 發(fā)表于 2025-3-12 09:48
grok3的方案要比這個好,,他給的是變螺距方案,,但是目前的AI在方案靈活性上顯然還不夠,當然也許是我交流 ...

Grok的排名還是比較靠后的

作者: babty    時間: 2025-3-13 11:45
啥啥啥
作者: 無法言喻1977    時間: 2025-3-14 19:19
無法言喻1977 發(fā)表于 2025-3-11 20:07
其實不要說設計師,,任何人都應該好好了解學習AI,,和身邊幾個玩自媒體的朋友聊天當中用得知用AI收益確實不錯 ...

AI的資料也是在網(wǎng)上搜集沒有錯,這與勤奮或者懶惰沒有關(guān)系,,如果自已搜一個需要5分鐘利用AI2分鐘搜出,,做那中選擇?其二,我利用AI搜索怎樣用SOLIDWORKS畫一個圓,AI從3個基準面依次介紹,,思路,,動作,技巧,,等,,后面還給出學習建議。網(wǎng)上會有如此詳細嗎,?其三,,對AI的理解是仁者見仁智者見智,沒有必要加雜個人情緒,。當初我開淘寶店鋪的時候,,10個人有9個人就說不行的,說什么質(zhì)量沒保障,,沒人買,,。其結(jié)果這些年多少線下實體關(guān)門,。其四,,如果說AI真沒有什么作用,堂堂的大美國家會如此緊張,。





歡迎光臨 機械社區(qū) (http://97307.cn/) Powered by Discuz! X3.4