• <li id="00i08"><input id="00i08"></input></li>
  • <sup id="00i08"><tbody id="00i08"></tbody></sup>
    <abbr id="00i08"></abbr>
  • 博客專欄

    EEPW首頁 > 博客 > CMU華人18萬打造高能機(jī)器人,完爆斯坦福炒蝦機(jī)器人!全自主操作,1小時學(xué)會開12種門

    CMU華人18萬打造高能機(jī)器人,完爆斯坦福炒蝦機(jī)器人!全自主操作,1小時學(xué)會開12種門

    發(fā)布人:傳感器技術(shù) 時間:2024-01-28 來源:工程師 發(fā)布文章
    圖片

    編輯:Aeneas 桃子【導(dǎo)讀】斯坦福炒菜機(jī)器人的大火,開啟了2024年機(jī)器人元年。最近,CMU研究團(tuán)隊(duì)推出了一款能在開放世界完成任務(wù)的機(jī)器人,成本僅18萬元。沒見過的場景,它可以靠自學(xué)學(xué)會!

    比斯坦福炒蝦機(jī)器人還厲害的機(jī)器人來了!

    最近,CMU的研究者只花費(fèi)2.5萬美元,就打造出一個在開放世界中可以自適應(yīng)移動操作鉸接對象的機(jī)器人。

    圖片論文地址:https://arxiv.org/abs/2401.14403

    厲害之處就在于,它是完全自主完成操作的。

    看,這個機(jī)器人能自己打開各式各樣的門。

    無論是需要按一下把手才能打開的門。


    需要推開的門。

    圖片

    透明的彈簧門。

    圖片

    甚至是昏暗環(huán)境中的門。

    圖片

    它還能自己打開櫥柜。

    圖片

    打開抽屜。

    圖片

    自己打開冰箱。

    圖片

    甚至,它的技能推廣到訓(xùn)練以外的場景。

    結(jié)果發(fā)現(xiàn),一個小時內(nèi),機(jī)器人學(xué)會打開20個從未見過的門,成功率從行為克隆預(yù)訓(xùn)練的50%,飆升到在線自適應(yīng)的95%。

    即使眼前是一個它從未見過的門,這個優(yōu)秀的小機(jī)器人也順利打開了!

    圖片

    圖片

    英偉達(dá)高級科學(xué)家Jim Fan表示:

    斯坦福的ALOHA雖然令人印象深刻,但很多動作都需要人類協(xié)同控制,但這個機(jī)器人,則是完全自主完成的一系列操作。

    它背后的核心思想,就是在測試時進(jìn)行RL,使用CLIP(或任何視覺語言模型)作為學(xué)習(xí)的獎勵函數(shù)。

    這樣,就像ChatGPT用RLHF進(jìn)行預(yù)訓(xùn)練一樣,機(jī)器人可以對人類收集的軌跡進(jìn)行預(yù)訓(xùn)練(通過遠(yuǎn)程控制),然后通過新場景進(jìn)行RLHF,這樣就掌握了訓(xùn)練以外的技能。

    圖片

    這項(xiàng)工作一經(jīng)發(fā)布,立刻獲得了同行們的肯定。

    「恭喜!這是將機(jī)械臂帶出實(shí)驗(yàn)室的好裝置?!?/span>

    圖片

    「太令人激動了,讓機(jī)器人在線學(xué)習(xí)技能前景巨大!」

    圖片

    「如此便宜的定制硬件,會讓移動操作變得瘋狂?!?/span>

    圖片

    「永遠(yuǎn)不要惹一個機(jī)器人,它已經(jīng)學(xué)會開門了。」

    圖片

    讓我們具體看看,這個機(jī)器人是如何完成未見過的開門任務(wù)。

    機(jī)器人自適應(yīng)學(xué)習(xí),性能暴漲至90%


    當(dāng)前多數(shù)機(jī)器人移動操作,僅限于拾取-移動-放置的任務(wù)。

    由于多種原因,在「開放世界」中開發(fā)和部署,能夠處理看不見的物體機(jī)器人系統(tǒng)具有極大的挑戰(zhàn)性。

    針對學(xué)習(xí)「通用移動操作」的挑戰(zhàn),研究人員將研究重點(diǎn)放在一類有限的問題——涉及鉸接式物體的操作,比如開放世界中的門、抽屜、冰箱或櫥柜。

    別看,開門、打開抽屜、冰箱這種日常生活中的操作對于每個人來說,甚至小孩子來說輕而易舉,卻是機(jī)器人的一大挑戰(zhàn)。

    對此,CMU研究人員提出了「全?!沟姆椒▉斫鉀Q以上問題。

    圖片

    為了有效地操縱開放世界中的物體,研究中采用了「自適應(yīng)學(xué)習(xí)」的框架,機(jī)器人不斷從交互中收集在線樣本進(jìn)行學(xué)習(xí)。

    這樣一來,即使機(jī)器人遇到了,不同鉸接模式或不同物理參數(shù)(因重量或摩擦力不同)的新門,也可以通過交互學(xué)習(xí)實(shí)現(xiàn)自適應(yīng)。

    圖片

    為了實(shí)現(xiàn)高效學(xué)習(xí),研究人員使用一種結(jié)構(gòu)化的分層動作空間。它使用固定的高級動作策略和可學(xué)習(xí)的低層控制參數(shù)。

    使用這種動作空間,研究人員通過各種遠(yuǎn)程操作演示的數(shù)據(jù)集,初始化了策略(BC)。這為探索提供了一個強(qiáng)有力的先驗(yàn),并降低了執(zhí)行不安全動作的可能性。

    成本僅2.5萬美金


    此前,斯坦福團(tuán)隊(duì)在打造Mobile ALOHA的所有成本用了3萬美元。

    而這次,CMU團(tuán)隊(duì)能夠以更便宜的成本——2.5萬美元(約18萬元),打造了一臺在通用世界使用的機(jī)器人。

    圖片

    如下圖3所示,展示了機(jī)器人硬件系統(tǒng)的不同組件。

    研究人員選用了AgileX的Ranger Mini 2底座,因其具有穩(wěn)定性,全向速度控制,和高負(fù)載稱為最佳選擇。

    為了使這樣的系統(tǒng)有效,能夠有效學(xué)習(xí)至關(guān)重要,因?yàn)槭占F(xiàn)實(shí)世界樣本的成本很高。

    使用的移動機(jī)械手臂如圖所示。

    圖片

    手臂采用了xArm進(jìn)行操作,有效負(fù)載為5公斤,成本較低,可供研究實(shí)驗(yàn)室廣泛使用。

    CMU機(jī)器人系統(tǒng)使用了Jetson計(jì)算機(jī)來支持傳感器、底座、手臂,以及托管LLM的服務(wù)器之間的實(shí)時通信。

    圖片

    對于實(shí)驗(yàn)數(shù)據(jù)的收集,是通過安裝在框架上的D435 IntelRealsense攝像頭來收集RGBD圖像,并使用T265 Intel Realsense攝像頭來提供視覺里程計(jì),這對于在執(zhí)行RL試驗(yàn)時重置機(jī)器人至關(guān)重要。

    另外,機(jī)器人抓手還配備了3D打印抓手和防滑帶,以確保安全穩(wěn)定的抓握。

    研究人員還將創(chuàng)建的模塊化平臺的關(guān)鍵方面,與其他移動操縱平臺進(jìn)行比較。

    看得出,CMU的機(jī)器人系統(tǒng)不論是在手臂負(fù)載力,還是移動自由度、全向驅(qū)動的底座、成本等方面具有明顯的優(yōu)勢。

    圖片機(jī)器人成本圖片機(jī)械臂成本

    原始實(shí)現(xiàn)


    參數(shù)化原始動作空間的實(shí)現(xiàn)細(xì)節(jié)如下。

    抓取


    為了實(shí)現(xiàn)這個動作,對于從實(shí)感相機(jī)獲得的場景RGBD圖像,研究者使用現(xiàn)成的視覺模型,僅僅給出文本提示,就能獲取門和把手的掩碼。

    此外,由于門是一個平面,因此可以使用相應(yīng)的掩碼和深度圖像,來估計(jì)門的表面法線。

    這就可以將底座移動到靠近門的地方,使其垂直,并設(shè)置抓握把手的方向角度。

    使用相機(jī)校準(zhǔn),將把手的2D掩碼中心投影到3D坐標(biāo),這就是標(biāo)記的抓取位置。

    原始抓取的低級控制參數(shù),會指示要抓取位置的偏移量。

    這是十分有益的,因?yàn)楦鶕?jù)把手的類型,機(jī)器人可能需要到達(dá)稍微不同的位置,通過低級連續(xù)值參數(shù),就可以來學(xué)習(xí)這一點(diǎn)。

    約束移動操縱


    對于機(jī)器人手臂末端執(zhí)行器和機(jī)器人底座,研究者使用了速度控制。

    通過在SE2平面中的6dof臂和3dof運(yùn)動,他們創(chuàng)建了一個9維向量。

    圖片

    其中前6個維度對應(yīng)手臂的控制,后三個維度對應(yīng)底座。

    研究者使用原始數(shù)據(jù),對該空間施加了如下約束——

    圖片

    在控制機(jī)器人時,策略會輸出與要執(zhí)行的原始數(shù)據(jù)相對應(yīng)的索引,以及運(yùn)動的相應(yīng)低級參數(shù)。

    低級控制命令的值從-1到1連續(xù),并且會在一段固定的持續(xù)時間內(nèi)執(zhí)行。

    參數(shù)的符號決定了速度控制的方向,順時針或逆時針用于解鎖和旋轉(zhuǎn),向前或向后用于打開物體。

    預(yù)訓(xùn)練數(shù)據(jù)集


    在這個項(xiàng)目中考慮的鉸接物體,由三個剛性部分組成:底座部分、框架部分和手柄部分。

    其中包括門、櫥柜、抽屜和冰箱等物體。

    它們的底座和框架通過旋轉(zhuǎn)接頭(如在櫥柜中)或棱柱接頭(如在抽屜中)連接。框架通過旋轉(zhuǎn)接頭或固定接頭連接到手柄。

    因此,研究者確定了鉸接物體的四種主要類型,分類取決于與手柄的類型和關(guān)節(jié)機(jī)構(gòu)。

    手柄關(guān)節(jié)通常包括杠桿(A型)和旋鈕(B型)。

    對于手柄沒有鉸接的情況,主體框架可以使用旋轉(zhuǎn)接頭(C型)繞鉸鏈旋轉(zhuǎn),或者沿著柱接頭(例如抽屜)前后滑動(D型)。

    雖然并不詳盡,但可以說這四種分類基本涵蓋了機(jī)器人系統(tǒng)可能遇到的各種日常鉸接物體。

    圖片

    然而,總還有機(jī)器人看不到的新型鉸接物體,為了提供操作這些新型鉸接物體的泛化優(yōu)勢,研究者首先收集了離線演示數(shù)據(jù)集。

    在BC訓(xùn)練數(shù)據(jù)集中,包含了每個類別的3個對象,研究者為每個對象收集10個演示,總共生成120個軌跡。

    此外,研究者還為每個類別保留了2個測試對象,用于泛化實(shí)驗(yàn)。

    訓(xùn)練和測試對象在視覺外觀(例如紋理、顏色)、物理動力學(xué)(例如彈簧加載)和驅(qū)動(例如手柄關(guān)節(jié)可能是順時針或逆時針)方面存在顯著差異。

    圖片

    在圖4中,包含了訓(xùn)練和測試集中使用的所有對象的可視化,以及它們來自集合的哪個部分,如圖5所示。

    自主安全的在線自適應(yīng)


    在這項(xiàng)工作中,研究者們面臨的最大挑戰(zhàn)就在于,如何使用不屬于BC訓(xùn)練集的新對象進(jìn)行操作?

    為了解決這個問題,他們開發(fā)了一個能夠完全自主強(qiáng)化學(xué)習(xí)(RL)在線適應(yīng)的系統(tǒng)。

    安全意識探索


    確保機(jī)器人所采取的探索動作對其硬件來說是安全的,這一點(diǎn)至關(guān)重要,特別是它是在關(guān)節(jié)約束下與物體交互的。

    理想情況下,機(jī)器人應(yīng)該可以解決動態(tài)任務(wù),比如使用不同力量控制開門。

    然而,研究者使用的xarm-6這種低成本手臂,不支持精確的力感應(yīng)。

    圖片

    因此,為了部署系統(tǒng),研究者使用了基于在線采樣期間讀取聯(lián)合電流的安全機(jī)制。

    如果機(jī)器人采樣到導(dǎo)致關(guān)節(jié)電流達(dá)到閾值的動作,該事件就會終止,并重置機(jī)器人,以防止手臂可能會損害到自身,并且會提供負(fù)面獎勵,來抑制此類行為。

    獎勵規(guī)范


    在實(shí)驗(yàn)中,人類操作員會給機(jī)器人提供獎勵。

    如果機(jī)器人成功開門,則獎勵+1,如果失敗則獎勵0,如果存在安全違規(guī)則獎勵-1。

    這種獎勵機(jī)制是可行的,因?yàn)橄到y(tǒng)只需要很少的樣本來學(xué)習(xí)。

    然而,對于自主學(xué)習(xí),研究者希望消除依賴人類出現(xiàn)在循環(huán)中的瓶頸。

    在這種情況下,他們研究了使用大型視覺語言模型作為獎勵來源的辦法。

    具體來說,他們使用CLIP來計(jì)算兩個文本提示與機(jī)器人執(zhí)行后觀察到的圖像之間的相似度得分。

    研究者使用的兩個提示是「門已關(guān)閉」和「門已打開」,他們會計(jì)算最終觀察到的圖像和每個提示的相似度得分。

    如果圖像更接近指示門打開的提示,則分配獎勵+1,否則分配獎勵0。如果觸發(fā)安全保護(hù),獎勵為-1。


    復(fù)位機(jī)制


    在這個過程中,機(jī)器人會采用視覺里程計(jì),利用安裝在其底座上的T265跟蹤攝像頭,使其能夠?qū)Ш交爻跏嘉恢谩?/span>

    每次行動結(jié)束時,機(jī)器人會放開抓手,并移回原來的SE2基地位置,并拍攝If的圖像以用于計(jì)算獎勵。

    然后,研究者對SE2基地位置進(jìn)行隨機(jī)擾動,以便策略變得更加穩(wěn)健。

    此外,如果獎勵為1,門被打開時,機(jī)器人就會有一個腳本例程,來把門關(guān)上。

    實(shí)驗(yàn)結(jié)果


    研究人員在CMU校園內(nèi)四棟不同建筑中(12個訓(xùn)練對象和8個測試對象),對全新架構(gòu)加持的機(jī)器人系統(tǒng)進(jìn)行了廣泛的研究。

    具體回答了以下幾個問題:

    1)系統(tǒng)能否通過跨不同對象類別的在線自適應(yīng),來提高未見過對象的性能?

    2)這與僅在提供的演示中,使用模仿學(xué)習(xí)相比如何?

    3)可以使用現(xiàn)成的視覺語言模型自動提供獎勵嗎?

    4)硬件設(shè)計(jì)與其他平臺相比如何?(硬件部分已進(jìn)行了比較)

    在線自適應(yīng)


    a. 不同物體類別評估

    研究人員在4個類別的固定銜接物體上,對最新的方法進(jìn)行了評估。

    如下圖6所示,呈現(xiàn)了從行為克隆初始策略開始,利用在線交互進(jìn)行5次迭代微調(diào)的持續(xù)適應(yīng)性能。

    每次改進(jìn)迭代包括5次策略rollout,之后使用等式5中的損失對模型進(jìn)行更新。

    圖片

    可以看到,最新方法將所有對象的平均成功率從50%提高到95%。因此,通過在線交互樣本不斷學(xué)習(xí)能夠克服初始行為克隆策略的有限泛化能力。

    自適應(yīng)學(xué)習(xí)過程能夠從獲得高獎勵的軌跡中學(xué)習(xí),然后改變其行為,更頻繁地獲得更高的獎勵。

    在BC策略性能尚可的情況下,比如平均成功率約為70%的C類和D類對象,RL能夠?qū)⒉呗酝晟频?00%的性能。

    此外,即使初始策略幾乎無法執(zhí)行任務(wù),強(qiáng)化學(xué)習(xí)也能夠?qū)W習(xí)如何操作對象。這從A類實(shí)驗(yàn)中可以看出,模仿學(xué)習(xí)策略的成功率非常低,只有10%,完全無法打開兩扇門中的一扇。

    通過不斷的練習(xí),RL的平均成功率可以達(dá)到90%。

    這表明,RL可以從模仿數(shù)據(jù)集中探索出可能不在分布范圍內(nèi)的動作,并從中學(xué)習(xí),讓機(jī)器人學(xué)會如何操作未見過的新穎的鉸接物體。

    b. Action-replay基線

    還有另一種非常簡單的方法,可以利用演示數(shù)據(jù)集在新對象上執(zhí)行任務(wù)。

    研究團(tuán)隊(duì)針對2個特別難以進(jìn)行行為克隆的對象(A類和B類各一個(按壓杠桿和旋鈕手柄)運(yùn)行了這一基線。

    這里,采取了開環(huán)和閉環(huán)兩種方式對這一基線進(jìn)行評估。

    在前一種情況下,只使用第一張觀察到的圖像進(jìn)行比較,并執(zhí)行整個檢索到的動作序列;而在后一種情況下,每一步執(zhí)行后都會搜索最近的鄰居,并執(zhí)行相應(yīng)的動作。

    從表3中可以看出,這種方法非常無效,進(jìn)一步凸顯了實(shí)驗(yàn)中訓(xùn)練對象和測試對象之間的分布差距。

    圖片

    c. 通過VLM自主獎勵

    CMU團(tuán)隊(duì)還研究是否可以通過自動程序來提供獎勵,從而取代人工操作。

    正如Action-replay基線一樣,研究人員在兩個測試門上對此進(jìn)行評估,每個門都從把手和旋鈕類別進(jìn)行評估。

    從表2中,使用VLM獎勵的在線自適應(yīng)性能與使用人類標(biāo)注的地面實(shí)況獎勵相近,平均為80%,而使用人類標(biāo)注的獎勵則為90%。

    圖片

    另外,研究人員還在圖7中報告了每次訓(xùn)練迭代后的性能。學(xué)習(xí)循環(huán)中不再需要人類操作員,這為自主訓(xùn)練和改進(jìn)提供了可能性。

    圖片

    為了成功操作各種門,機(jī)器人需要足夠堅(jiān)固才能打開并穿過它們。

    研究人員根據(jù)經(jīng)驗(yàn)與另一種流行的移動操縱系統(tǒng)進(jìn)行比較,即Stretch RE1(Hello Robot)。

    他們測試機(jī)器人由人類專家遠(yuǎn)程操作,以打開不同類別的兩扇門的能力,特別是杠桿門和旋鈕門。每個物體都進(jìn)行了5次試驗(yàn)。

    如表IV所示,這些試驗(yàn)的結(jié)果揭示了Stretch RE1的一個重大局限性:即使由專家操作,其有效負(fù)載能力也不足以打開真正的門,而CMU提出的AI系統(tǒng)在所有試驗(yàn)中都取得了成功。

    圖片

    總而言之,CMU團(tuán)隊(duì)在這篇文章中提出了一個全棧系統(tǒng),用于在開放世界中進(jìn)行進(jìn)行自適應(yīng)學(xué)習(xí),以操作各種鉸接式物體,例如門、冰箱、櫥柜和抽屜。

    最新AI系統(tǒng)通過使用高度結(jié)構(gòu)化的動作空間,能夠從很少的在線樣本中學(xué)習(xí)。通過一些訓(xùn)練對象的演示數(shù)據(jù)集進(jìn)一步構(gòu)建探索空間。

    CMU提出的方法能夠?qū)碜?個不同對象類別中,8個不可見對象的性能提高約50%-95%。

    值得一提的是,研究還發(fā)現(xiàn)這一系統(tǒng)還可以在無需人工干預(yù)的情況下通過VLM的獎勵進(jìn)行學(xué)習(xí)。

    作者介紹


    Haoyu Xiong

    圖片

    Haoyu Xiong是CMU計(jì)算機(jī)科學(xué)學(xué)院機(jī)器人研究所的研究生研究員,專注于人工智能和機(jī)器人技術(shù)。他的導(dǎo)師是Deepak Pathak。

    Russell Mendonca


    Russell Mendonca是CMU大學(xué)機(jī)器人研究所的三年級博士生,導(dǎo)師是Deepak Pathak。他本人對機(jī)器學(xué)習(xí)、機(jī)器人學(xué)和計(jì)算機(jī)視覺中的問題非常感興趣。

    之前,他曾畢業(yè)于加州大學(xué)伯克利分校電氣工程和計(jì)算機(jī)科學(xué)專業(yè),并在伯克利人工智能實(shí)驗(yàn)室(BAIR)與Sergey Levine教授一起研究強(qiáng)化學(xué)習(xí)。

    Kenneth Shaw

    圖片

    Kenneth Shaw是卡內(nèi)基梅隆大學(xué)機(jī)器人研究所的一年級博士生,導(dǎo)師同樣是Deepak Pathak。他的研究重點(diǎn)是,實(shí)現(xiàn)與人類一樣的機(jī)械手的靈巧操作。機(jī)械手應(yīng)該如何設(shè)計(jì)成是何在我們的日常生活中應(yīng)用?我們?nèi)绾谓虣C(jī)械手模仿人類?最后,我們?nèi)绾问褂媚M和大規(guī)模數(shù)據(jù)來解鎖新的靈巧操作行為?

    Deepak Pathak


    Deepak Pathak是卡內(nèi)基梅隆大學(xué)計(jì)算機(jī)科學(xué)學(xué)院的助理教授,還是機(jī)器人研究所的成員。他的工作是人工智能,是計(jì)算機(jī)視覺、機(jī)器學(xué)習(xí)和機(jī)器人學(xué)的交匯點(diǎn)。


    *博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點(diǎn),如有侵權(quán)請聯(lián)系工作人員刪除。



    關(guān)鍵詞: 高能機(jī)器人

    技術(shù)專區(qū)

    關(guān)閉
    主站蜘蛛池模板: 青州市| 广水市| 乌鲁木齐县| 大石桥市| 莱西市| 泰兴市| 南皮县| 北碚区| 丰顺县| 东乌珠穆沁旗| 郴州市| 花莲县| 阳原县| 山西省| 轮台县| 弥勒县| 陇川县| 韶关市| 五常市| 同心县| 如东县| 沁源县| 西华县| 淮阳县| 改则县| 交口县| 沙洋县| 杂多县| 涪陵区| 东城区| 商南县| 桂东县| 廉江市| 游戏| 城步| 三门峡市| 铜山县| 衡东县| 文昌市| 南溪县| 正安县|