七七影院色七七_免费观看欧美a一级黄片_亚洲综合久久久久久中文字幕_国产999999在线视频免费观看,国产小视频无码,国产精品亚洲日日摸夜夜添,女人高潮潮叫免费网站,久久影院国产精品,日韩成人在线影院,欧美囗交XX×BBB视频,色在线综合高清
機械社區(qū)
標題:
太獵奇了,,首個GPT-4驅動的人形機器人
[打印本頁]
作者:
twq19810302
時間:
2023-12-22 14:02
標題:
太獵奇了,,首個GPT-4驅動的人形機器人
本帖最后由 twq19810302 于 2023-12-22 14:05 編輯
+ p5 a# z2 |! c- a8 u
" Z; p0 m, ?. _& u( R2 P- L
讓GPT-4操縱人形機器人,,事先不做任何編程or訓練,能搞成啥樣兒,?
& s: L7 E3 S& m5 F. N# a
7 s4 U+ s4 G2 w7 R) |$ `
答案是:
太 獵 奇 了
!
$ P/ r0 z: m# [( }# K& ?
' T1 F0 Y% }5 f' r! \/ M
這不,,要求機器人表演“在昏暗電影院里狂炫爆米花,,卻突然發(fā)現(xiàn)吃的是隔壁陌生人的😅”,。
& U" ~0 X* u7 A& B/ F+ }- ?
, G: L# f9 X5 `, M2 x9 M
在GPT-4的操縱下,機器人笑容凝固,,“尷尬”得搖頭扶額后仰:
2 S* ^; ]/ |- i u2 W
2 l5 N) z, J* c( c) q3 e
V% }# A# K' E: C: l# j
" N0 ^ g& q$ d- C' _
但在尷尬之余,,竟然還不忘再抓一把塞嘴里?,?,?
又像是要求機器人“彈吉他”。
8 h( E. A2 F* b" {( h J0 p
9 _" A: r* h0 o9 K5 Z0 F
GPT-4略思考一番,,開始操控機器人活動一番手指,、隨后瘋狂甩頭,好像是有點搖滾內味兒,。
但仔細一看,,甩頭的時候,手指就完全不動了……
6 S3 g" M7 p* F$ I' l# K
# R" l5 f% L; C! T9 @( M O
" H5 z) I a) w8 A9 K! z- j% w
你要說這是神叨叨的地攤先生在掐指一算,,好像也沒什么不對(手動狗頭),。
- }6 o$ A- b/ F# ^2 c* }
l) j* v% E) z; z6 G$ Q
總結一系列動作來看——
' I4 a" ?' S! k! Q, r: D& v
7 ^% d0 g5 @& _7 w* \
相比波士頓動力人形機器人,一舉一動均由人為程序精細操縱,,這個GPT-4直接操控的機器人,,表情猙獰,動作詭異,,但一切行為又符合prompt的要求,。
( A" J9 A% V6 X3 S" _. f
0 A& f$ {" @/ @+ r" B0 s
% q `$ \2 s2 T) M0 J/ C6 d
8 S4 D7 A3 i- e( Y: Z
這一連串GPT-4操控機器人的視頻po到網(wǎng)上后,不少網(wǎng)友直呼“恐怖谷效應犯了”:
( C9 I- T3 |7 C
* W; w1 {) S% G0 o6 ^ v
原來,,這是
首個由GPT-4驅動人形機器人
的研究,,來自東京大學和日本Alternative Machine公司。
) ?% P) e$ _7 ]
$ r8 Y2 T' u7 Q/ h( M, c5 a
" k) v, p, a- o! _! {% \) f
依靠這項研究,,用戶無需事先給機器人編程,,只需語言輸入、也就是
動動嘴皮和GPT-4聊上一會兒
,,就能讓機器人根據(jù)指令完成行動,。
2 u. N7 C: |0 `- K2 ~3 ]
4 }! z, P @7 q# x% k) f6 j/ o
- F- N' E) ]( M" ]! S7 F* j
; C* }3 N) X9 _, r" |& V/ A
來具體講講把GPT-4和Alter3集成到一起,是如何實現(xiàn)的,。
2 E7 L: w* J% } P' {
) s! m1 N# E( G: ]( v1 b
大體可以分為兩個步驟:
0 a- ^1 {7 q0 r% \
" \) E& n- X- \8 s8 x, Z& [
首先
,,先用prompt描述一下,想要Alter3能夠完成什么行為或者動作,,比如“咱來張自拍吧”“自拍的時候胳膊再舉高一點”,。
6 g# a! d/ p8 m Y1 B$ B1 C' l
$ m: W, e9 l9 y, m- r2 v5 b4 o/ i# I
接收到輸入的GPT-4會生成一系列的思考步驟,這些步驟詳細地闡述了要完成這個動作,需要先后完成些啥,。
" k: `3 w) d/ E# t, ~# {" r
" d: ]$ [6 B8 G$ a$ B1 ^" w
這個過程被研究團隊稱為CoT的一部分,,即將一個復雜任務分解為一串更簡單的思考步驟。
6 K9 k( @5 @! {3 C* N$ Q
4 Z# j: z& ?: Y6 u3 j& X
然后
,,研究者們再祭出另一個prompt,,把分解后的詳細步驟轉化為Alter3可以聽懂的動作指令。
0 G* S& m3 r s+ D
$ T$ T, A9 ]* C4 a
簡單理解就是把人們的指令描述轉化為Python代碼,,這些代碼可以直接用來控制Alter3的各個身體部位的具體運動參數(shù),。
( z: c i) D. P9 S" N& C# z" t: }
% x4 F2 ~) H, ^) G) F9 Y+ d* D
有了轉化后的代碼,Alter3想擠眉弄眼就擠眉弄眼,,想撇嘴就能撇嘴
l0 p, C' D u, g1 ^+ @5 C
0 Q. a0 K% u- R' f d j
研究團隊把這第二步也看成CoT的一部分,,因為它完成的是“把一個抽象描述轉化為具體操作”。
) w" h8 _7 J+ f; f3 t, P
8 K7 J5 R9 L2 z$ ~
5 A) I3 v5 d1 }( K u$ P
5 t: f3 J; t6 ^! K& \. W8 ~
團隊表示,,CoT讓GPT-4能夠有效控制Alter3,,命令它做各種復雜動作,且不用額外的訓練或者微調,。
# \( {& r- }* O& _
9 k) g- x0 ~6 b! [0 u( N' |
多說兩句,,除了上述的兩個Prompt搞定機器人控制外,研究團隊還順手完成了一些其它研究,。
, r. z7 \1 r2 }8 F
% Z' g8 O4 m1 a! w
比如掰開了看Alter3在對話中的行為,,主要針對其
對話軌跡
和
語義時間演化
。
# I7 b3 m* v. }6 m# B! K7 M! M! F0 q
6 e1 Y4 \! V |4 y1 ?! w
針對對話軌跡,,研究團隊使用了一種叫UMAP(Uniform Manifold Approximation and Projection)的方法,。團隊把對話內容嵌入二維空間,從而方便觀察這個簡化版的對話發(fā)展過程,。
" {2 ]3 _3 p: W# g! r) M9 _ W
9 k5 P; [9 [+ w7 \% W
他們發(fā)現(xiàn),,當對話順序固定時,對話軌跡會呈現(xiàn)循環(huán)模式,,也就是老在重復同樣的話題,。
5 h2 Y; b. e4 i* X
9 a( @8 ?$ U, }1 n: u4 U0 b
而當對話順序隨機時,對話內容更有發(fā)散性or創(chuàng)造性,。
& |) N3 Y E# g# r/ w1 @. X7 Z
+ @- O; W; i& V& v2 R6 o
賊有趣的一點,研究發(fā)現(xiàn)GPT-4聊久了過后,,會傾向于反復說“再見”,。如果你不來點兒人為干預,它就會沉迷于想辦法跟你說再見,。
5 ]( w# m& I6 v0 v
% P! H0 s: ~* o+ G9 u1 w' ~
而做語義時間演化分析的過程中,,團隊觀察了隨著時間變化,聊天內容的變化,。
+ L3 t1 o5 Q9 Y J2 y" {5 F) k; u
: H) a5 S; e! q3 `3 r( n
他們發(fā)現(xiàn),,對話初期的一些關鍵詞,,比如“藝術”或者“學習”啥的,會聊著聊著就被GPT-4忘了,,取而代之的是諸如“文化”“人類”“抑制”之類的詞,。
4 ^! R! v; [- W0 S0 u: N" x
% k }8 Q, a2 w/ l- V
這表明對話內容是在逐漸發(fā)展變化的。
) \( i0 ]- ?: R& ^+ b* o" T
" w" p9 c) ]. B7 D
當然,,如果你開始跟GPT-4說“再見”,,它就幾乎一心一意只想跟你說byebye~(doge)
) ]: Q* P) X# X' P1 J2 w
7 x' b6 R4 `- w2 G" x/ y% c
這項火爆全網(wǎng)的研究,來自東京大學和日本Alternative Machine公司,。
6 |" Z/ L/ O# N- A# g" d1 m
# d0 s9 c" @+ J! e
一作
Takahide Yoshida
,,來自東京大學通用系統(tǒng)科學系。
2 b" f- D1 }4 ]3 q7 j
( l. y1 _) k+ q+ L
另外兩位作者
升森敦士
(Atsushi Masumori)和
池上高志
(Takashi Ikegami),,都是既在東京大學,,又屬于Alternative Machine公司。
# n+ g1 {: ^- P! [
! P& n- i9 X M1 W
( X9 O' N, s# U4 G
1 ]' j3 A4 ~- n9 _! y
最后,,不得不提到本次研究內容的主人公
Alter3
,,它的幕后研究者也來自東京大學,由東京大學AI研究學者池上高志和日本“機器人之父”石黑浩聯(lián)袂打造,。
0 y* P% s3 h- P( e5 s& ~. S" ]* y
) R8 }3 Y0 Z/ @, D
Alter3出生于2020年,,是同系列機器人第三代產品。
) t J) z1 x7 M0 U( c1 i. ^
7 c. z+ {6 ?/ o" ^. |
據(jù)了解,,Alter系列的兩次迭代都是在歌劇演唱中完成的,。第3代的初亮相就是在東京新國立劇場指揮管弦樂隊并參加其他現(xiàn)場表演。
2 y: q# G* t, T' g [" f. ^* Q
2 ^/ z: E- I2 v
2 W: o$ l( d$ ^- r8 t8 ]2 l+ x
9 X# o' a, `! H
那個時候它的特色是增強了傳感器,,并改善了唱歌的表達能力和發(fā)聲系統(tǒng),。
" F" S: x* U1 p3 ]/ \- j# V
. W" A* j2 i. T3 c- n
以及身體里那粒能夠最終驅動43個氣動裝置的CPG。
( D" `2 G$ R. I& O
5 V# N2 T4 u& T v, s5 ~
CPG對數(shù)據(jù)的分析靈敏到什么程度呢,?就是如果Alter3呆的房間里如果溫度驟降,,Alter3會因此打個冷顫,表示自己有被冷到,。
: @/ x/ R) A/ ~5 L) x$ S
" Q* h+ j3 n5 @3 T+ W% Z. v
) o0 A q6 R9 ?5 n; o
這或許也為現(xiàn)在接入GPT-4當腦子后的它,,能夠活靈活現(xiàn)做表情、完成動作提供了一些基礎吧,。
& }! g; T% G( e9 q$ e. Z; M
* A# Z9 n1 z! f6 K9 S! h
0 F4 F: `2 [2 a
作者:
紫衣青衫
時間:
2023-12-22 15:34
感覺能看到N年后的一點影子了,,AI迭代下去智能提升,控制機器軀殼
作者:
喂我袋鹽
時間:
2023-12-22 15:54
紫衣青衫 發(fā)表于 2023-12-22 15:34
0 ?$ _' g/ H. `/ M+ f3 p" B
感覺能看到N年后的一點影子了,,AI迭代下去智能提升,,控制機器軀殼
, Z5 O8 M( d8 E. r* c
同意,現(xiàn)在看上去還是智障,將來還是會越來越智能的
, p8 |+ d/ _" ?; N4 l3 t( Y; X0 ]( D
作者:
tiantianxs
時間:
2023-12-26 08:42
厲害,!科技的力量正在成長
歡迎光臨 機械社區(qū) (http://97307.cn/)
Powered by Discuz! X3.4