![]() |
發(fā)布時(shí)間: 2023-3-6 16:24
正文摘要:我做過(guò)機(jī)械設(shè)計(jì)做過(guò)程序控制,,以前的程控可以說(shuō)都算是應(yīng)激反應(yīng):每一個(gè)輸入都有反饋或者回應(yīng),,沒(méi)有輸入程序控制就會(huì)停止。而chatgpt可以說(shuō)不是程序的應(yīng)激反應(yīng),。而是在發(fā)展籌措能力,。換句畫(huà)說(shuō)以前的人工智能沒(méi)有中樞神 ... |
曉曉曉27 發(fā)表于 2023-3-7 10:08 疑犯追蹤好幾季了,2025續(xù)訂了嗎,? |
我還是喜歡《疑犯追蹤》里的人工智能TM |
目前看,,更像一個(gè)搜集歸納信息的搜索引擎 |
我也注冊(cè)問(wèn)了幾個(gè)問(wèn)題,回答就像你說(shuō)的沒(méi)有深刻理解語(yǔ)詞含義 把它當(dāng)個(gè)智能交互的搜索引擎比較好,,有標(biāo)準(zhǔn)答案的很賽 |
確切的說(shuō),,人工智能不用發(fā)展高度的“智能”就能毀滅人類。因?yàn)槿祟愒谒男袆?dòng)目標(biāo)之內(nèi),。就想我們走路從來(lái)不考慮螞蟻一樣,,因?yàn)槟愕哪康氖亲叨皇菤纭H斯ぶ悄芤彩且粯�,,只要它的邏輯點(diǎn)在這,,而他又有行動(dòng)能力,有工業(yè)支撐,,人類幾乎就完蛋,。 |
如果AI能達(dá)到人的智能程度,,那不就創(chuàng)造了另外一種外形不同的人,人是由女?huà)z造的(這不是明明白白),,不是由人造的,。所以人不可能成為神一樣的存在,所以人不可能使AI達(dá)到人的智能程度,。 |
直至目前公開(kāi)的對(duì)話AI仍存在嚴(yán)重缺陷,。雖然是由AI讀取大量數(shù)據(jù),可以給出像模像樣的答案,,但也存在很多致命性錯(cuò)誤,。很難說(shuō)AI真正理解了問(wèn)題和自己用于作答的詞匯的“含義”。 通過(guò)梳理“ChatGPT”等對(duì)話AI出現(xiàn)的諸多錯(cuò)誤,,就可以發(fā)現(xiàn)機(jī)器要達(dá)到真正的智能所面臨的核心技術(shù)課題,。 事實(shí)上,領(lǐng)先一步的ChatGPT的基礎(chǔ)是基于AI的大型語(yǔ)言模型,,該模型建立在谷歌開(kāi)發(fā)的被稱為“Transformer”的技術(shù)之上,。 谷歌和微軟都強(qiáng)調(diào),通過(guò)同時(shí)使用搜索和生成自然語(yǔ)言的功能,,可以根據(jù)網(wǎng)上的最新信息生成語(yǔ)句,。反過(guò)來(lái)說(shuō),對(duì)話AI此前一直不擅長(zhǎng)追逐最新信息,。 ChatGPT等的大型語(yǔ)言模型,,每次更新信息內(nèi)容時(shí),都需要重新讀取數(shù)量龐大的文獻(xiàn)數(shù)據(jù),。因?yàn)楹茈y頻繁更新,,所以模型內(nèi)保存的信息大多比較舊。 除了上述的問(wèn)題外,,對(duì)話AI還存在根本性的課題,。目前推出的對(duì)話AI基本上都很難說(shuō)已經(jīng)可以理解自己所使用的詞匯的概念,、含義,、事物或現(xiàn)象的因果關(guān)系等“邏輯”。正因?yàn)槿绱�,,才�?huì)反復(fù)出現(xiàn)簡(jiǎn)單的事實(shí)誤認(rèn),。 例如,向ChatGPT詢問(wèn)“哥哥和姐姐有什么不同”時(shí),,得到的回答是“雖然兄弟姐妹關(guān)系因家庭結(jié)構(gòu)和出生順序不同而存在差異,,但哥哥通常比姐姐年齡大”。之所以給出這樣不知所以然的答案,,是因?yàn)闆](méi)有“理解”哥哥,、姐姐等詞語(yǔ)的概念,、相互之間的關(guān)系、家庭構(gòu)成等全局情況,。 之所以會(huì)出現(xiàn)這樣的錯(cuò)誤,,是因?yàn)楝F(xiàn)在使用的絕大部分語(yǔ)言模型是機(jī)器學(xué)習(xí)型AI。因此,,使用的語(yǔ)言基本上是單詞和短語(yǔ)的“排列”,,機(jī)器通過(guò)讀入數(shù)量龐大的過(guò)去的文獻(xiàn)來(lái)識(shí)別排列類型。然后再計(jì)算出各類型出現(xiàn)的概率,,尋找出接在問(wèn)題之后的概率較高的字符串并加以顯示,。 也就是說(shuō),聊天AI不過(guò)是根據(jù)讀取數(shù)據(jù)找出概率高的詞序,,并不是理解單詞,、語(yǔ)句的“含義”以及家庭成員之間的關(guān)系等“常識(shí)”。因此,,它不擅長(zhǎng)回答那些不理解意義和常識(shí)就難以回答的問(wèn)題,。 由于不擅長(zhǎng)邏輯,因此Chat GPT也不擅長(zhǎng)簡(jiǎn)單的計(jì)算,。讓它做任意4位數(shù)之間的乘法,,大都會(huì)算錯(cuò),并且反復(fù)輸入相同算式時(shí),,總是給出錯(cuò)誤的答案,。 也就是說(shuō),現(xiàn)有的聊天AI不適合用于調(diào)查事實(shí),。而應(yīng)該僅限于在不管內(nèi)容的真實(shí)性和準(zhǔn)確性,,只需要自動(dòng)生成自然語(yǔ)句和軟件程序等文字列的目的時(shí)使用。 對(duì)話型AI缺乏“常識(shí)”和“道理”也源于根據(jù)數(shù)據(jù)以歸納法方式探索相關(guān)類型的機(jī)器學(xué)習(xí)型AI的弱點(diǎn),。 兼具常識(shí)和邏輯思考的新一代AI如何才能實(shí)現(xiàn),?參考人類兒童自然掌握語(yǔ)言、空間認(rèn)識(shí)及社會(huì)關(guān)系等的過(guò)程,,讓計(jì)算機(jī)學(xué)習(xí)邏輯和常識(shí)的研究正以腦科學(xué)家和認(rèn)知科學(xué)家也參與的跨學(xué)科途徑推進(jìn),。另外,也有將在第2次AI浪潮下失敗的人類輸入邏輯和常識(shí)與尖端的深層學(xué)習(xí)相融合的嘗試,。 關(guān)于通過(guò)機(jī)器實(shí)現(xiàn)與人類接近的智能這一長(zhǎng)期目標(biāo)與現(xiàn)有AI技術(shù)的差距,,開(kāi)拓深層學(xué)習(xí)基本技術(shù)的美國(guó)Meta首席AI科學(xué)家、紐約大學(xué)教授Yann Lucan形容道:“目前先別說(shuō)人類,,就連貓狗的智能都遠(yuǎn)未達(dá)到”,。 我們不能因?yàn)榭吹綄?duì)話AI的流暢文章就誤以為AI智能已經(jīng)接近超越人類的“特異功能”(Singularity)。人類的科學(xué)技術(shù)在達(dá)到這一水平之前還需要實(shí)現(xiàn)眾多突破。 |
小黑屋|手機(jī)版|Archiver|機(jī)械社區(qū) ( 京ICP備10217105號(hào)-1,,京ICP證050210號(hào),,浙公網(wǎng)安備33038202004372號(hào) )
GMT+8, 2025-4-5 16:50 , Processed in 0.056308 second(s), 17 queries , Gzip On.
Powered by Discuz! X3.4 Licensed
© 2001-2017 Comsenz Inc.